Autoblog de la La quadrature du net

Ce site n'est pas le site officiel de la Quadrature du net.
C'est un blog automatisé qui réplique les articles de laquadrature.net

Veesion et surveillance en supermarchés : vraie illégalité, faux algorithmes ?

Thu, 18 Jul 2024 12:41:04 +0000 - (source)

Le vendredi 21 juin, le Conseil d’État a rendu une ordonnance de référé passée presque inaperçue concernant Veesion, la start-up française de surveillance algorithmique des « vols » en supermarchés. Bien qu’il s’agisse d’une procédure toujours en cours (l’affaire doit encore être jugée au fond), la justice administrative a conforté ce que nous soulignons depuis 3 ans : l’illégalité du logiciel conçu par la start-up de surveillance.

Autre fait passé inaperçu : la délocalisation à Madagascar d’une partie de travail de Veesion – et la possible remise en cause de l’authenticité de son algorithme.

La surveillance algorithmique, ce n’est pas que pour nos rues, villes, espaces publics. Comme les caméras, ces dispositifs de surveillance s’étendent, se normalisent et s’insinuent petit à petit dans nos quotidiens. Veesion est une start-up française qui vend un logiciel de surveillance algorithmique pour soi-disant détecter les vols en supermarché.

Concrètement, il s’agit d’installer sur les caméras des supermarchés un algorithme repérant des gestes considérés comme suspects pour détecter les « mauvaises intentions de possibles voleurs à l’étalage » (pour reprendre l’expression d’un publi-reportage de la société par le journal d’extrême-droite le JDD).

L’objectif est purement financier : promettre à ses clients (des grandes ou petites surfaces) une réduction de « plus de 60% des pertes liées au vol à l’étalage » et de sauver « 1 à 3% du chiffre d’affaires » qui leur serait subtilisé. Dans sa présentation en 2021 (sur un post Medium aujourd’hui supprimé), le créateur de Veesion allait plus loin : son logiciel devait protéger la grande distribution des troubles sociaux à venir du fait de la détresse sociale (comprendre : protéger les grandes surfaces des populations pauvres poussées au vol par la situation économique).

Le problème est double. Non seulement, Veesion se vante de faire du business sur la détresse sociale mais leur logiciel est également illégal. D’autant qu’il n’est pas certain que cet algorithme existe réellement.

Une start-up multiprimée, subventionnée… et purement illégale

La Quadrature du Net avait tiré la sonnette d’alarme dès le début : en surveillant les gestes de ses clients, la start-up analyse des données comportementales – dites biométriques – particulièrement protégées au niveau du droit français et européen. Un tel traitement est par principe interdit par l’article 9 du RGPD et l’article 6 de la loi Informatique et Libertés, et les exceptions à cette interdiction sont strictes. Or, aucune de ces conditions n’est applicable au dispositif de Veesion, qui bafoue donc cette interdiction.

Nous n’étions pas les seul·es à relever l’illégalité de Veesion : la CNIL l’avait dit (via plusieurs médias – en se fondant sur un motif d’illégalité différent), tout comme le ministère de l’intérieur. Même Veesion le savait. Bref, tout le monde savait que le logiciel développé par Veesion ne respectait pas le droit en vigueur (pour plus de détails, voir notre analyse de 2023)

Veesion n’a pourtant pas semblé être inquiétée le moins du monde. Pire encore, ces dernières années, elle attire des subventions, reçoit des prix, fait de la publicité dans les journaux, récupère des centaines de clients… Sur son site, Veesion parle même de milliers de commerçants. Un des co-fondateurs, Benoît Koenig, passe sur les plateaux de BFM, affirmant la légalité de son dispositif. En mars 2023, la start-up lève plus de 10 millions d’euros. En juin 2024, elle annonce plus de 150 salariés et plus de 8 millions de chiffre d’affaires.

Le capitalisme de surveillance n’a pas peur du droit

Après plusieurs années d’indécence, la récente ordonnance du Conseil d’Etat vient révéler que la CNIL a engagé une procédure contre Veesion en raison de l’illégalité de son logiciel. La CNIL a notamment souhaité en alerter l’ensemble de ses clients en obligeant à afficher dans les magasins concernés une information sur une telle infraction à la loi. Veesion a essayé de faire suspendre en urgence cette procédure et le Conseil d’Etat a rejeté la requête le 21 juin dernier.

Prenons les bonnes nouvelles où elles sont : c’est un petit coup d’arrêt à la vidéosurveillance algorithmique dans les supermarchés. À la veille des Jeux Olympiques, célébrations de la normalisation de l’algorithmisation de la surveillance publique, c’est un point positif à conserver.

Difficile néanmoins d’être entièrement convaincu·es.

Si nous n’avons pas accès à la décision de la CNIL, il est fort problable que celle-ci ait considéré le logiciel de Veesion illégal uniquement parce que les client·es des magasins ne peuvent pas s’opposer au traitement de leur image. Ce motif d’illégalité était déjà rappelé par la CNIL dans sa position de 2022 sur la VSA mais nous parait très limité sur le plan politique. C’est en effet une bien faible victoire qui empêche de remettre en cause le fondement même de l’algorithme et son aspect disproportionné et problématique. Non seulement la décision du Conseil d’État est une décision prise dans une procédure d’urgence (il reste à attendre la décision sur le fond de l’affaire qui arrivera dans plusieurs mois) et, de surcroît, Veesion a annoncé depuis que la CNIL avait pour l’instant suspendu sa décision en attente de nouveaux éléments de la part de l’entreprise.

Cette décision ne mettra de toute façon pas à terre plusieurs années de normalisation de ce logiciel. Personne ne demandera aux fondateurs de Veesion et à leurs associés de rembourser l’argent qu’ils ont touché sur leur business sordide. Personne ne viendra compenser les droits et libertés des personnes qui auront été espionné·es ou identifi·eés par cet algorithme. Alors même que les garde-fous contre la surveillance s’amenuisent petit à petit, les maigres barrières qui nous restent sont allégrement méprisées par ces entreprises de surveillance.

C’est d’ailleurs sans aucun doute une stratégie réfléchie, avec laquelle l’écosystème du business numérique s’accorde bien : normaliser une pratique illégale pour créer et asseoir un marché puis attendre du droit qu’il s’adapte à un état de fait, arguant de la création d’emplois et de l’innovation apportée. Lors de la consultation publique lancée par la CNIL sur le sujet en 2022, Veesion plaidait pour sa cause et expliquait à quel point cela serait un drame économique que de freiner cette technologie, sans jamais questionner ses conséquences sur les libertés.

Veesion semble être aussi passée à autre chose et cherche déjà à s’exporter aux États-Unis où le droit à la vie privée et la protection des données personnelles sont encore moins respectés. Médiatiquement, la décision du Conseil d’État ne semble aussi faire que peu de bruit – alors même que les supermarchés clients de Veesion sont nombreux, comme Carrefour, Leclerc ou BioCoop.

Délocalisation de la surveillance en supermarché à Madagascar

Un autre problème pour Veesion a été soulevé par les recherches effectuées par deux sociologues, Clément Le Ludec et Maxime Cornet, chercheurs à Télécom Paris, spécialistes sur le domaine de l’intelligence artificielle. Dans un article sur France Info passé lui-aussi relativement inaperçu (décidemment), les deux chercheurs sont revenus sur la sous-traitance à des travailleur·euses sous-payé·es dans des pays comme Magadascar par l’écosystème de l’IA. Les chercheurs s’inquiètent en particularité de la précarité de ces « travailleurs en bout de chaîne ».

L’article de France Info va plus loin : des personnes ayant été employées à Madagascar pour une société semblable à celle de Veesion disent avoir pour travail de repérer des vols en supermarchés directement sur le flux de vidéosurveillance des magasins : « Notre objectif c’est de trouver les vols. Ce sont eux qui envoient les vidéos, nous on les traite juste. En direct, en temps réel. Nous on envoie juste l’alerte et eux ils font l’arrestation des suspects ». Même si la société s’en défend, Veesion elle-même ne semble pas chercher à Madagascar des personnes pour améliorer un algorithme existant, mais au contraire pour « signaler des vols (…) dans les magasins le plus rapidement possible » ou pour « avertir le magasin d’un comportement douteux ».

En d’autres termes : il est possible que, pour une partie des clients de Veesion, il n’y ait pas vraiment d’algorithme pour repérer des comportements suspects dans un supermarché… mais seulement un·e travailleur·se précaire à l’autre bout du monde chargé·e de visionner le flux de caméra en direct et de repérer « à la main » ces gestes suspects, en imitant l’algorithme. En somme, la fable du turc mécanique.

Cela rejoint le travail des mêmes chercheurs publié en 2023 concernant une société de surveillance en supermarché non explicitement nommée mais qui ressemble beaucoup à Veesion. Clément Le Ludec et Maxime Cornet révèlent, concernant cette société, que les personnes employées à Madagascar « agissent avant tout comme des agents de sécurité à distance, détectant les vols presque en temps réel ».

À noter que Veesion s’appuie sur une double exploitation. Si une grande partie repose sur des personnes exploitées à Madagascar, les caissières et caissiers deviennent aussi des « travailleurs du clic ». Comme l’avait écrit lundimatin dans son article sur l’entreprise, le gérant du magasin conserve en effet le détail des interactions sur les écrans des employé·es, afin de vérifier leur réactivité aux alertes du logiciel : « Libre à lui alors de sommer ses employés d’être plus attentifs aux alertes de la machine en cas de non-retour de leur part ».

Il y a dans la société Veesion le concentré des dérives des start-ups sur le marché du numérique : banalisation des technologies de surveillance, non-respect affiché du droit, dépendance à de la main d’œuvre exploitée à l’autre bout du monde, et forte approximation autour de l’effectivité de son logiciel. Un tel exemple vient interroger l’effectivité du droit comme encadrement. Ces entreprises ne le respectent pas et récoltent pourtant une importante aide financière et médiatique.

Quand un cadre juridique n’est ni respecté par les entreprises concernées, ni appliqué par l’autorité qui en est responsable (ici, la CNIL agit mollement plusieurs années après la mise en œuvre du logiciel), c’est bien l’interdiction explicite de ces systèmes de surveillance qui doit primer. Alors pour agir et vous informer contre la VSA, rendez vous sur laquadrature.net/vsa ou aidez-nous si vous le pouvez en nous faisant un don.


Première victoire contre l’audiosurveillance algorithmique devant la justice

Wed, 17 Jul 2024 12:38:52 +0000 - (source)

Plus de trois ans après notre recours, le tribunal administratif d’Orléans vient de confirmer que l’audiosurveillance algorithmique (ASA) installée par l’actuelle mairie d’Orléans – des micros installés dans l’espace public et couplés à la vidéosurveillance, destinés à repérer des situations dites anormales – est illégale. Ce jugement constitue la première victoire devant les tribunaux en France contre ce type de surveillance sonore et constitue un rappel fort des exigences en matière de droits fondamentaux pour les autres communes qui seraient tentées par de tels dispositifs.

Une claque pour Orléans et Sensivic

La ville d’Orléans et l’entreprise Sensivic se sont vu rappeler la dure réalité : déployer des micros dans l’espace public pour surveiller la population n’est pas légal. Les allégations de Sensivic d’un soi-disant produit « conforme RGPD » et les élucubrations d’Orléans en défense pour faire croire qu’il ne s’agirait que d’un inoffensif « détecteur de vibrations de l’air » n’auront servi à rien.

Dans son jugement, le tribunal administratif est sévère. Il commence par battre en brèche l’argument de la commune qui affirmait qu’il n’y avait pas de traitement de données personnelles, en rappelant que les dispositifs de micros couplés aux caméras de vidéosurveillance « collectent et utilisent ainsi des informations se rapportant à des personnes susceptibles, au moyen des caméras avec lesquelles ils sont couplés, d’être identifiées par l’opérateur ». Il en tire alors naturellement la conclusion que ce dispositif est illégal parce qu’il n’a pas été autorisé par la loi.

Mais le tribunal administratif va plus loin. Alors que l’adjoint à la commune d’Orléans chargé de la sécurité, Florent Montillot, affirmait sans frémir que cette surveillance permettrait de « sauver des vies », la justice remet les pendules à l’heure : « à […] supposer [le dispositif d’audiosurveillance algorithmique] utile pour l’exercice des pouvoirs de police confiés au maire […], il ne peut être regardé comme nécessaire à l’exercice de ces pouvoirs ». Autrement dit : « utilité » ne signifie ni proportionnalité ni légalité en matière de surveillance. Cela va à rebours de tout le discours politique déployé ces dernières années qui consiste à déclarer légitime tout ce qui serait demandé par les policiers dès lors que cela est utile ou plus simple sur le terrain. Cela a été la justification des différentes lois de ces dernières années telle que la loi Sécurité Globale ou la LOPMI.

Un avertissement pour la Technopolice

Ce jugement est un avertissement pour les promoteurs de cette surveillance toujours plus débridée de l’espace public. Si la vidéosurveillance algorithmique (VSA) reste la technologie la plus couramment utilisée – illégalement, sauf malheureusement dans le cadre de la loi JO – l’audiosurveillance algorithmique (ASA) n’est pas en reste pour autant. Avant la surveillance à Orléans par Sensivic, on l’a retrouvée à Saint-Étienne grâce à un dispositif d’ASA développé par Serenicity que la CNIL avait lourdement critiqué et fait mettre à l’arrêt.

Avec ce jugement, le tribunal administratif d’Orléans ne déclare pas seulement l’ASA illégale : il estime également qu’un contrat passé entre une commune et une entreprise pour mettre en place ce type de surveillance peut-être attaqué par une association comme La Quadrature. Cet élément est loin d’être un détail procédural, alors que des communes comme Marseille ont pu par le passé échapper au contrôle de légalité de leur surveillance en jouant sur les règles très contraignantes des contentieux des contrats.

La question du couplage de l’ASA à la vidéosurveillance classique

En septembre 2023, la CNIL, que nous avions saisie en parallèle du TA d’Orléans, considérait que cette ASA était illégale dès lors qu’elle était couplée à la vidéosurveillance en raison de la possibilité de « réidentifier » les personnes. Mais elle ajoutait qu’elle ne trouvait plus rien à redire depuis que le dispositif orléanais était découplé de la vidéosurveillance locale. Une analyse que nous avons contestée devant le TA d’Orléans1Voir nos observations d’octobre 2023 et celles de janvier 2024..

Dans son jugement, le tribunal administratif d’Orléans n’a pas explicitement considéré que l’ASA orléanaise ne serait pas un traitement de données si elle n’était plus couplée à la vidéosurveillance. Puisqu’il était saisi de la légalité de la convention entre Sensivic et Orléans, laquelle prévoyait ce couplage, il s’est borné à dire que le dispositif ASA et vidéosurveillance était illégal.

Dans tous les cas, ce point est annexe : l’audiosurveillance algorithmique exige, par nature, d’être couplée avec une source supplémentaire d’information permettant de traiter l’alerte émise. Que ce soit par un couplage avec la vidéosurveillance ou en indiquant à des agent·es de police ou de sécurité de se rendre à l’endroit où l’événement a été détecté, l’ASA visera toujours à déterminer la raison de l’alerte, donc d’identifier les personnes. Elle est donc par nature illégale.

Laisser-faire de l’État face à une technologie manifestement illégale

Impossible toutefois de passer sous silence la lenteur de l’administration (ici, la CNIL) et de la justice devant les dispositifs de surveillance manifestement illégaux de l’industrie sécuritaire. Alors même qu’un dispositif semblable avait été explicitement et très clairement sanctionné à Saint-Étienne en 2019, Sensivic a pu conclure sans difficulté une convention pour installer ses micros dopés à l’intelligence artificielle. Il aura fallu une double saisine de la part de La Quadrature pour mettre un terme à ce projet.

Un tel dossier prouve que l’industrie sécuritaire n’a que faire du droit et de la protection des libertés, qu’elle est prête à tout pour développer son marché et que l’État et le monde des start-ups s’en accommode bien. Comment Sensivic, avec une technologie aussi manifestement illégale, a-t-elle pu récolter 1,6 millions en 2022, dont une partie du fait de la BPI (Banque Publique d’Investissement) ? L’interdiction explicite de ces technologies de surveillance est la seule voie possible et tenable.

Ce jugement reste une victoire sans équivoque. Il annonce, nous l’espérons, d’autres succès dans notre combat juridique contre la Technopolice, notamment à Marseille où notre contestation de la VSA est toujours en cours de jugement devant la cour administrative d’appel. Alors pour nous aider à continuer la lutte, vous pouvez nous faire un don ou vous mobiliser dans votre ville.

References


Affaires Lafarge – Dessaisir la Sous-direction anti-terroriste

Tue, 02 Jul 2024 23:29:09 +0000 - (source)

La Quadrature du Net est signataire de cette tribune que nous reproduisons ici.

Le 2 juillet, les 4 personnes mises en examen dans l’affaire dite « Lafarge » sont convoquées devant les juges d’instruction. Un collectif de 180 personnalités, avocats, magistrats, intellectuel·les de renom et activistes, dénoncent le rôle croissant de la Sous-Direction-Anti-Terroriste dans la répression des mouvements sociaux. « Si les gouvernements précédents ont donné toujours plus de latitude aux services anti-terroristes, les prochains ne se gêneront pas pour en profiter pleinement ».

Mais pour qui travaille la SDAT ?

Ce mardi 2 juillet, les 4 personnes mises en examen dans l’affaire dite « Lafarge », accusées d’avoir participé au désarmement de l’usine de Bouc-Bel-Air en décembre 2022, sont convoquées devant les juges d’instruction. Elles devront répondre de faits de dégradation et d’association de malfaiteurs, prétendument aggravés par le caractère de « bande organisée ». Peine encourue : 20 ans de prison. Les victimes de cette affaire – sacs de ciment, armoires électriques et autres véhicules de chantier – n’étant pas douées de parole, le parquet n’a pas osé qualifier ces faits de « terroristes ». Pourtant, c’est la Sous-Direction-Anti-Terroriste (SDAT), en collaboration avec la section de recherche de Marseille, qui est chargée de l’enquête, toujours en cours à ce jour.

C’est encore la SDAT qui a été saisie de l’enquête pour d’autres dégradations : peinture et mousse expansive sur le site Lafarge de Val-de-Reuil en décembre 2023. Parmi les 17 personnes initialement interpellées, 9 devront comparaître au tribunal d’Évreux à l’hiver prochain. À chaque fois, la SDAT a coordonné des opérations d’interpellations spectaculaires où l’on a pu voir des commandos cagoulés et armés défoncer les portes de dizaines de militant·es – quand ce ne sont pas celles de leurs voisins – pour les emmener dans les sous-sols de leurs locaux à Levallois-Perret.

L’enquête sur l’affaire Lafarge a permis et permet sans doute encore de traquer les déplacements, les relations et les conversations de centaines de personnes, et d’éplucher les comptes de nombreuses associations. Particulièrement alarmant, le dossier montre l’usage d’un mystérieux logiciel espion qui, à l’instar de Pegasus, est employé pour aspirer le contenu des téléphones et notamment celui des messageries cryptées, ou encore le fichier des titres d’identité (TES) détourné de manière abusive pour récolter les empreintes digitales (1). Plus largement, cette enquête fait planer la menace d’une perquisition sur la tête de quiconque aurait les mauvais ami·es, se serait rendu sur les lieux d’une manifestation, ou aurait le malheur d’être géolocalisé au mauvais endroit et au mauvais moment, comme de nombreux témoignages l’ont montré.

Pourquoi une telle opération ? La SDAT travaillerait-elle pour une des entreprises les plus toxiques de la planète, actuellement mise en examen par le Parquet National Anti-Terroriste pour complicité de crime contre l’humanité et financement du terrorisme ? La défense de Lafarge par les services français, déjà largement documentée dans le cadre du financement de Daesh, se reconduit-elle en France ?

La SDAT, service de police spécialisé, étroitement lié à la direction du renseignement intérieur, a régulièrement mis ses capacités d’exception au service d’intérêts politiques variés de l’État français. Les arrestations récentes de militants indépendantistes du CCAT en Kanaky par la même SDAT, et leur transfert à 17 000 km de chez eux, montre encore une fois le rôle de la police antiterroriste dans la répression des mouvements sociaux.

Dans l’affaire Lafarge, elle est saisie pour des enquêtes de simples dégradations sans mobile terroriste, quinze ans après la tentative infructueuse de faire tomber le fantasmatique groupe anarcho-autonome de Tarnac et quelques années après l’effarante affaire du 8 décembre qui avait provoqué l’incarcération de plusieurs personnes pendant des mois. De son propre aveu, il lui faut bien trouver des figures de l’ennemi intérieur pour justifier de son budget face à la baisse de la « menace djihadiste » et « chercher de nouveaux débouchés du côté de l’écologie ». Qu’importe si les enquêteurs de la SDAT reconnaissent que ceux qu’ils catégorisent comme appartenant à l’« ultra gauche » ne s’en prennent pas aux personnes mais aux biens.

Brandir la criminalité organisée pour des faits de dégradations a le mérite de créer de toute pièce une nouvelle menace repoussoir : celle de l’écoterroriste. Dans la lecture policière, une manifestation devient un commando, telle personne connue des services de renseignement pour son activité dans les mouvements sociaux devient cadre, ou encore coordinateur, ou logisticienne. On catégorise les membres présumés de cette bande en les faisant appartenir à un cercle dirigeant et stratégique ou à un cercle opérationnel. L’enquête, menée à charge contre les Soulèvements de la Terre a notamment permis, via la traque des supposés « cadres », de justifier une surveillance accrue à la veille de la manifestation de Sainte Soline en mars 2023. On est bien loin des événements de Bouc Bel Air. La SDAT assure bien sûr n’enquêter que sur des « faits », se défendant « d’enquêter sur un mouvement dans le but de le faire tomber » (10). L’affirmation prêterait presque à rire si les conséquences n’étaient pas aussi lourdes. Il suffit de rappeler que les arrestations dans l’affaire Lafarge ont eu lieu la veille de la dissolution des Soulèvements de la terre en Conseil des ministres, empêchant ainsi plusieurs de ses porte-parole de s’exprimer à un moment crucial.

La construction policière révélée par des rapports de synthèse fantasmagoriques est dangereuse parce qu’elle fabrique des figures qui ont pour fonction première d’orienter les décisions des magistrats instructeurs. Elle altère profondément le principe de présomption d’innocence et la garantie des droits pour les personnes poursuivies. Sur le fond, la saisie des services de la SDAT, dont « l’excellence » se mesure à sa capacité à s’exonérer du régime de droit commun de l’enquête(2) et aux moyens démesurés mis à sa disposition, pour des faits qui sont strictement en dehors de sa vocation, relève avant tout de la répression politique. François Molins lui-même, visage de la lutte anti-terroriste et procureur au tribunal de Paris de 2011 à 2018, s’inquiète du détournement par les préfets des dispositifs mis en place pour combattre les menaces d’attentats à des fins de maintien de l’ordre. À la veille des Jeux Olympique de Paris les « MICAS » Mesures Individuelles de Contrôle Administratif et de Sécurité commencent à tomber, elles constituent des équivalents des assignations à résidence en l’absence de l’état d’urgence qui les conditionnent normalement. Relevant de la lutte anti-terroriste, elles constituent une procédure amplement détournée pour priver des libertés de manifester et de se déplacer des militants qui pourraient déranger.

Si les gouvernements précédents ont donné toujours plus de latitude aux services anti-terroristes, les prochains ne se gêneront pas pour en profiter pleinement, tant l’outil à leur disposition est commode pour traquer les opposants et paralyser les mouvements sociaux. Dans cette période agitée où le RN est aux portes du pouvoir, les conséquences politiques de l’augmentation des moyens et du champ d’action de la police antiterroriste sont profondément dangereuses. Elles s’inscrivent dans une période d’extension de la surveillance de masse, d’aggravation des violences policières et de la répression judiciaire des mouvements de contestation. Puisque les intérêts économiques et idéologiques des puissances industrielles qui ravagent le monde convergent fortement avec ceux du RN, ce parti ouvertement climato-sceptique, on peut légitimement se demander : à quoi servira un outil tel que la SDAT s’il tombait aux mains de l’extrême droite ?

Pour toutes ces raisons, nous, participant·es ou soutiens des luttes écologiques, sociales et décoloniales, dénonçons le rôle croissant de la SDAT dans la répression des mouvements sociaux et écologistes. Nous, magistrat·es ou avocat·es, demandons qu’elle soit dessaisie des enquêtes sur des faits qui ne relèvent pas de ses compétences, à commencer par l’affaire Lafarge de Bouc Bel Air.

Notes : 

(1) Le fichier des titres électroniques sécurisés est une base de données gérée par le ministère de l’Intérieur qui rassemble les données personnelles et biométriques des Français pour la gestion des cartes nationales d’identité et des passeports français. 

(2) Hors contexte de terrorisme, les agents de police ont la possibilité d’anonymiser leur signature dans les actes de procédure si et seulement si une autorisation individuelle est délivrée par un magistrat dans une décision motivée. La SDAT ne s’encombre pas de cet encadrement et anonymise systématiquement ses actes.

Retrouvez la liste des signataires.


QSPTAG #311 — 28 juin 2024

Fri, 28 Jun 2024 15:37:40 +0000 - (source)

Les algorithmes punitifs de France Travail

À France Travail (ex-Pôle Emploi) comme à la CNAF, sous prétexte de « lutter contre la fraude » ou de pouvoir « individualiser » les dossiers, des algorithmes viennent noter, classer, et juger les bénéficiaires. Expérimentés chez France Travail depuis 2013, généralisés depuis 2018, ces algorithmes partent du principe que les allocataires sont malhonnêtes et abusent du système de l’assurance chômage, et leur attribuent un « score de suspicion » (le terme est utilisée par France Travail).

Mais l’agence a aussi imaginé d’utiliser des algorithmes pour remplacer la travail des conseiller·es et proposer des offres d’emplois — après tout, c’est déjà le cas pour Parcoursup et sur les applis de rencontre amoureuse… Loin de l’application d’un droit simple, on entre dans une politique de profilage et de tri des bénéficiaires. Scores « d’employabilité », « traitements des aspects motivationnels », « détection de signaux psychologiques » sont mobilisés pour détecter les « signes de perte de confiance » ou les « risques de dispersion ». Le calvaire social et intime qu’est le chômage devient un objet d’étude statistique affranchi de toute relation humaine, où les vies les plus fragiles sont normées, standardisées, formatées. Le même algorithmique qui diagnostiquera une « Dynamique de recherche faible » conseillera aussi l’employé·e de France Travail sur les actions à demander au bénéficiaire concerné… L’analyse détaillée est disponible sur notre site.

Lire l’article : https://www.laquadrature.net/2024/06/25/a-france-travail-lessor-du-controle-algorithmique/

Mobilisation contre les partisans de la surveillance totale

Nous le disons depuis des années : les outils numériques de la surveillance, sur Internet et dans les pratiques policières, sont des outils dangereux par essence. Ils ont pourtant toujours été adoptés, légalisés et encouragés par des gouvernements qui se présentaient comme des ennemis des positions « extrêmes » et promettaient la main sur le cœur qu’ils surveillaient les habitant·es du pays pour leur bien.

Aujourd’hui, l’extrême droite est à la veille de prendre le pouvoir. La responsabilité de ses prédécesseurs est énorme : ils offrent à un parti champion du racisme, de l’inégalité entre les personnes, de la violence et de la restriction des droits politiques, une magnifique machinerie de surveillance et de répression. Pour ces raisons, nous appelons chacune et chacun à se mobiliser le 30 juin, le 7 juillet et après, contre celles et ceux qui ont bâti ce système technique totalitaire, et contre celles et ceux qui comptent bien l’utiliser contre la population du pays.

Lire notre prise de position : https://www.laquadrature.net/2024/06/28/legislatives-la-surveillance-sur-un-plateau-brun/

Soutenir La Quadrature en 2024

Nous avons besoin de vous pour travailler en 2024, et nous avons pour le moment réuni 71% de notre objectif de collecte. N’hésitez pas à faire un don de soutien à l’association, ou à faire connaître notre campagne de dons autour de vous. Merci pour votre aide !

Présentation des grands chantiers de 2024 : https://www.laquadrature.net/donner/
et https://www.laquadrature.net/2023/11/15/de-nouveaux-combats-pour-2024/

Faire un don à La Quadrature : https://don.laquadrature.net/

Agenda

La Quadrature dans les médias

Divers


Législatives : la surveillance sur un plateau brun

Fri, 28 Jun 2024 10:14:55 +0000 - (source)

Alors que le choix d’Emmanuel Macron de dissoudre l’Assemblée nationale au lendemain des élections européennes risque de renforcer le poids de l’extrême droite, nous partageons l’inquiétude exprimée par beaucoup face au risque important que ce tremblement de terre politique fait peser sur la démocratie et les libertés. L’idéologie du Rassemblement National, entièrement tournée vers la création de droits différenciés sur des fondements racistes et réactionnaires, ne peut exister sans une structure de pouvoir forte et centralisée. C’est pourquoi nous ne doutons pas qu’un gouvernement d’extrême droite utilisera et renforcera la surveillance de la population pour exercer son pouvoir. Il aura, par exemple, besoin du fichage pour identifier les personnes à qui retirer des droits, de l’écosystème de surveillance pour traquer les personnes qu’il veut expulser, maltraiter ou enfermer ou encore des lois de censure et coercitives pour faire taire les oppositions anti-fascistes.

Il n’a pas fallu attendre le parti lepéniste pour que la surveillance autoritaire s’installe dans notre quotidien. Cette dernière décennie, au nom de « l’efficacité », de la « crise » ou encore de « l’urgence », François Hollande puis Emmanuel Macron ont adopté – avec le soutien de la droite et l’extrême droite – de nombreuses mesures sécuritaires et multiplié les dispositifs de surveillance tout en écartant les garde-fous et contre-pouvoirs. Des gouvernements se disant modérés ont systématiquement justifié la légalisation des technologies de surveillance, au motif qu’elles étaient adoptées dans un cadre démocratique et seraient « correctement » utilisées. Il s’agit évidemment d’un aveuglement dangereux.

Par essence, les outils de surveillance ne sont jamais neutres dès lors qu’ils donnent à un État la capacité de connaître, et donc de contrôler, sa population. Dès leur création, ils portent en eux un objectif de détecter les « signaux faibles » et trouver « l’ennemi intérieur ». Les dérives discriminantes font intégralement partie de la logique de ces technologies mais sont exacerbées lorsque celles-ci sont dans les mains de l’extrême droite. Ainsi, comme nous l’avions expliqué, l’édifice du fichage policier, pensé en France dès la fin du XIXe siècle et construit petit à petit pendant plusieurs décennies, était déjà mûr lorsque le régime de Vichy a été instauré en 1940. La possibilité que ces fichiers servent à identifier et arrêter des personnes était en réalité intrinsèque à ce système et il a simplement suffit au pouvoir pétainiste d’en ajuster les usages.

Les mêmes logiques aveugles se répètent. Les gouvernements successifs ont depuis vingt ans installé et banalisé les outils qui serviront à l’extrême droite pour mettre en oeuvre le monde ségrégué, injuste et autoritaire pour lequel elle milite depuis des années.

Une administration toute puissante

Le premier point de bascule est sans aucun doute l’état d’urgence de 2015. Il a bouleversé le fonctionnement de l’État de droit en modifiant les équilibres historiques des institutions. Le rôle des juges judiciaires, censés être les seuls à pouvoir restreindre les libertés individuelles selon la Constitution, a été réduit au profit du rôle confié à l’administration, au prétexte que celle-ci pourrait agir plus vite. De nombreux abus ont été constatés lors de l’état d’urgence avec l’utilisation de mesures visant massivement des personnes musulmanes ou des activistes écologistes. Ce régime d’exception a été prolongé par la loi « renforçant la sécurité intérieure et la lutte contre le terrorisme » (SILT) de 2017, qui l’a fait entrer dans le droit commun. Désormais, le ministre de l’intérieur peut demander des assignations à résidence ou des interdiction de paraître, au nom de la prévention du terrorisme, avec une simple information à un procureur.

Ce renforcement des pouvoirs de l’administration s’est propagé au-delà du cadre anti-terroriste. Petit à petit, depuis 2015, elle a réactivé ou obtenu de nombreux pouvoirs. Il est ainsi devenu de plus en plus fréquent que des préfets interdisent des manifestations ou des interventions au nom de l’ordre public. Depuis 2023, ils ont également la possibilité d’utiliser des drones de surveillance ou, depuis 2021 au nom de la loi Séparatisme, de priver des associations de leurs subventions. Depuis la loi sur les Jeux olympiques et paralympiques de 2023, ils peuvent également expérimenter la vidéosurveillance algorithmique. Pouvons-nous sérieusement imaginer qu’un gouvernement d’extrême droite se privera d’utiliser ces larges pouvoirs ? Assignation à résidence de militant·es de gauche, multiplication des drones au dessus des quartiers populaires ou encore interdiction d’évènements antiracistes, les préfets nommés par le RN auront de nombreux leviers répressifs à leurs disposition.

Le ministre de l’intérieur a, quant à lui, réinvesti la possibilité de dissoudre des associations. Avant même la réforme législative ouvrant une ère de dissolutions massives, le ministre de l’intérieur a commencé par des organisations musulmanes telles que le CCIF, puis il s’est attaqué aux groupes d’extrême gauche comme le Bloc lorrain ou la Défense collective à Rennes. Des dissolutions que Jordan Bardella a promis d’amplifier encore davantage.

Une justice affaiblie

L’augmentation des pouvoirs de l’administration s’est accompagnée d’une remise en cause des principes fondateurs de la justice. Avec la création de l’amende forfaitaire délictuelle, le juge judiciaire a ainsi été mis à l’écart dans un domaine qui lui était initialement réservé. Depuis 2016, le législateur peut prévoir que, pour certaines infractions, les poursuites pénales s’arrêteront automatiquement lorsque la personne poursuivie paye une amende. Autrement dit, la police peut désormais faire pression sur les personnes en leur proposant un choix cornélien : faire valoir leurs droits devant un juge ou s’acquitter de quelques centaines d’euros pour s’arrêter là. Ces dernières années, les délits concernés par l’amende forfaitaire délictuelle ont été considérablement élargis, avec par exemple la consommation de stupéfiants ou, pendant le confinement en 2020, le fait de sortir de chez soi sans attestation.

Mais c’est surtout sur internet que ce contournement du juge a été le plus assumé. Depuis 2014 et une loi portée par Bernard Cazeneuve, la police peut exiger seule que des sites internet retirent des contenus qu’elle estime être à caractère « terroriste ». Alors que nous avons toujours dénoncé les risques de censure politique et d’arbitraire de ce mécanisme confié à l’administration, en l’occurrence l’Office anti-cybercriminalité, nos craintes ont été confirmées à plusieurs reprises. Désormais, les plateformes en ligne et les réseaux sociaux vont jusqu’à collaborer activement avec le gouvernement quand celui-ci leur demande de retirer des contenus. Ainsi, lors des émeutes de l’été 2023, le ministère de l’intérieur a « convoqué » certains réseaux sociaux, et Snapchat a publiquement admis avoir retiré des contenus sur demande du gouvernement et en dehors de toute procédure légale. Pire : lorsque Gabriel Attal a pris la décision illégale de censurer le réseau social Tiktok en Nouvelle Calédonie, au motif que cette plateforme aurait joué un rôle dans les émeutes sur l’île, il a instauré un précédent inédit d’atteinte à la liberté d’expression que nos institutions ont échoué à empêcher. On pressent alors comment une censure des critiques contre l’extrême droite pourrait être facilitée par cet état des choses.

Technopolice partout

En parallèle, les capacités de surveillance de la police ont été énormément renforcées. Le nombre de fichiers (créés par simple décret) a explosé, leur accès s’est élargi et le contrôle des abus est quasi inexistant (la LOPMI de 2022 a même enlevé l’exigence formelle d’habilitation pour les consulter). La prise de signalétique (ADN, empreintes digitales et photo du visage) ainsi que la demande de code de déverrouillage du téléphone sont devenues systématiques pour faire pression sur les personnes gardées à vue, bien que cela soit généralement illégal car décorrélé de toute infraction annexe. Par ailleurs, l’exploitation de ces informations peut désormais être faite dans la rue, via des tablettes mobiles permettant aux gendarmes et policiers d’accentuer le harcèlement des personnes contrôlées.

Les technologies aussi ont évolué : la reconnaissance faciale s’est banalisée et est fréquemment utilisée dans les procédures judiciaires à travers le fichier TAJ, des logiciels d’analyse des métadonnées permettent de créer très facilement des graphes sociaux et de pister les habitudes des personnes, les logiciels espions peuvent désormais être utilisés pour activer à distance la fonction de géolocalisation d’un appareil mobile, et la police dispose de plus en plus d’outils de surveillance en source ouverte (OSINT). Par ailleurs, depuis 2016, cette dernière est autorisée à utiliser des techniques encore plus intrusives comme la sonorisation des lieux, la captation des données informatiques, les IMSI catchers, la captation d’images ou l’infiltration dans les procédures liées à la « criminalité organisée ». Cette catégorie recouvre des infractions très larges, et fut notamment invoquée pour poursuivre des militants écologistes qui ont bloqué une cimenterie Lafarge, ou pour justifier l’arrestation de militants indépendantistes kanaks en juin 2024.

Les services de renseignement ne sont pas en reste depuis la formalisation de leurs pouvoirs de surveillance par la loi Renseignement de 2015. Nous avons ainsi dénoncé le fait que cette loi légalise la possibilité d’utiliser de nombreux moyens de surveillance intrusifs, pour des finalités très larges, et notamment la surveillance des militant·es. Ces possibilités d’abus se sont concrétisées au fur et à mesure des années, au travers par exemple de la surveillance des gilets jaunes, ou de divers cas où des militant·es ont retrouvé du matériel de surveillance les visant (on pourra citer en exemple la caméra cachée devant l’espace autogéré des Tanneries à Dijon, le micro dans une librairie anarchiste à Paris, ou la balise GPS sous la voiture de Julien Le Guet du collectif Bassines Non Merci).

Dans son rapport d’activité pour l’année 2022, la Commission nationale de contrôle des techniques de renseignement (CNCTR) s’est d’ailleurs inquiétée de l’accroissement de la surveillance des militants. Elle a également alerté sur l’insuffisance de ses capacités de contrôle, qui l’empêche de suivre les dernières évolutions technologiques, notamment s’agissant des spywares et autres intrusions informatiques à distance.

Enfin, des précédents dangereux ont été créés avec l’élargissement continu de la justice d’exception applicable en matière de terrorisme, et l’implication grandissante des services antiterroristes dans des affaires politiques. L’affaire dite du « 8 décembre » est un triste exemple : la décision rendue fin décembre 2023 par le tribunal correctionnel de Paris confirme que des militant·es de gauche peuvent être poursuivis et condamné·es pour association de malfaiteurs à caractère terroriste sur la base de suspicions d’intention, sans projet avéré, et que protéger ses communications peut être utilisé comme une preuve de « comportement clandestin » pour justifier la condamnation.

La surveillance et la répression des mouvements militants, écologistes ou anti-autoritaires notamment, n’est plus une crainte, mais une réalité, d’autant qu’elle est accompagnée depuis plusieurs années d’un discours nourri visant à criminaliser toute forme de contestation en dehors du simple cadre électoral (actions syndicales, manifestations de rue, etc.). Elle n’en serait que pire sous une majorité RN.

Des gardes-fous illusoires

On le comprend, les dispositifs de surveillance et de répression sont déjà là et les gardes-fous institutionnels et politiques ne permettent plus de freiner les volontés politiques autoritaires. Nous le constatons avec dépit depuis des années : le droit n’empêche pas l’installation massive de technologies de surveillance sur la population. Le Conseil d’État a validé la légalité de quasiment tous les fichiers de police qui ont ont été contestés devant lui, y compris le fichage politique et religieux du PASP et du GIPASP.

Le Conseil constitutionnel, quant à lui, estime quasi systématiquement que les lois protègent suffisamment les libertés, le plus souvent en reportant le contrôle au cas par cas sur d’autres instances, comme les tribunaux administratifs, incapable de prévenir des abus systémiques dans l’usage de mesures de surveillance. Ce report du contrôle de légalité par le Conseil constitutionnel au juge administratif a également pour conséquence de faire peser la charge de la contestation légale sur la société civile ou les personnes victimes de cette recrudescence de surveillance, qui doivent aller en justice pour demander le respect des libertés. Sans grand succès, il faut bien l’admettre, vu le faible nombre de victoires.

Enfin, sur le plan matériel, les autorités administratives indépendantes comme la CNCTR ou la CNIL ne peuvent raisonnablement pas contrôler chaque action des forces de l’ordre et des services de renseignement. Concernant le cas particulier de la CNIL, on constate également chez elle une absence de courage politique qui explique son inaction, voire une volonté d’aider le gouvernement à légaliser de nouvelles mesures de surveillance comme ce fut le cas des drones ou de la VSA.

Si le constat a de quoi effrayer, il est loin d’être étonnant. Cela fait des années qu’associations, juristes, universitaires, militant·es de terrain alertent sur ce lent dépérissement de l’État de droit. Il suffit désormais au Rassemblement National de marcher dans les pas des gouvernements précédents et de se servir de l’arsenal législatif déjà existant. Son programme est profondément raciste, sexiste et LGBT-phobe et ne cache même plus son ambition de réduire les libertés et les droits individuels. Nous n’osons même pas nous figurer la facilité avec laquelle ce parti aurait à mettre en place ses mesures autoritaires et ses politiques de restriction des droits dès lors qu’il disposera des dispositifs mis en place ces dernières années.

Face à cette menace, nous appelons à la mobilisation pour ne pas voir ces outils de surveillance et de répression tomber dans les mains du Rassemblement National, ni laisser l’occasion aux « extrêmes-centristes » d’Emmanuel Macron de détruire les derniers garde-fous de l’État de droit. Nous appelons à militer et à voter massivement contre la droite et l’extrême droite aux prochaines législatives.


À France Travail, l’essor du contrôle algorithmique

Tue, 25 Jun 2024 15:37:14 +0000 - (source)

Mise à jour du 12 juillet 2024 : le directeur général de France Travail a souhaité utiliser son droit de réponse. Vous la trouverez à la suite de l’article.

« Score de suspicion » visant à évaluer l’honnêteté des chômeur·ses, « score d’employabilité » visant à mesurer leur « attractivité », algorithmes de détection des demandeur·ses d’emploi en situation de « perte de confiance », en « besoin de redynamisation » ou encore à « risque de dispersion »… France Travail multiplie les expérimentations de profilage algorithmique des personnes sans emploi.

Après avoir traité de l’utilisation par la CAF d’un algorithme de notation des allocataires, nous montrons ici que cette pratique est aussi partagée par France Travail, ex-Pôle Emploi. À France Travail, elle s’inscrit plus largement dans le cadre d’un processus de numérisation forcée du service public de l’emploi. Retrouvez l’ensemble de nos publications sur l’utilisation par les organismes sociaux d’algorithmes à des fins de contrôle social sur notre page dédiée et notre Gitlab.

Au nom de la « rationalisation » de l’action publique et d’une promesse « d’accompagnement personnalisé » et de « relation augmentée », se dessine ainsi l’horizon d’un service public de l’emploi largement automatisé. Cette automatisation est rendue possible par le recours à une myriade d’algorithmes qui, de l’inscription au suivi régulier, se voient chargés d’analyser nos données afin de mieux nous évaluer, nous trier et nous classer. Soit une extension des logiques de surveillance de masse visant à un contrôle social toujours plus fin et contribuant à une déshumanisation de l’accompagnement social.

De la CAF à France Travail : vers la multiplication des « scores de suspicion »

C’est, ici encore, au nom de la « lutte contre la fraude » que fut développé le premier algorithme de profilage au sein de France Travail. Les premiers travaux visant à évaluer algorithmiquement l’honnêteté des personnes sans emploi furent lancés dès 2013 dans la foulée de l’officialisation par la CAF de son algorithme de notation des allocataires. Après des premiers essais en interne jugés « frustrants »1Voir cette note de synthèse revenant sur les premières expérimentation faites par Pôle Emploi., France Travail – à l’époque Pôle Emploi – se tourne vers le secteur privé. C’est ainsi que le développement d’un outil de détermination de la probité des demandeur·ses d’emploi fut confié à Cap Gemini, une multinationale du CAC402Voir cet article sur l’implication de Cap Gemini dans la réalisation de l’outil de scoring..

La notation des chômeur·ses est généralisée en 2018. La présentation qui en est faite par France Travail donne à voir, comme à la CAF, l’imaginaire d’une institution assiégée par des chômeur·ses présumé·es malhonnêtes. Ses dirigeant·es expliquent que l’algorithme assigne un « score de suspicion » – dans le texte – visant à détecter les chômeur·ses les plus susceptibles « d’escroquerie » grâce à l’exploitation de « signaux faibles »3L’expression « score de suspicion » est extraite de l’analyse d’impact disponible ici, celle de « signaux faibles » d’une note de suivi des travaux OCAPI 2018 disponible ici, celle d’« indices » de l’article présentant la collaboration de France Travail avec Cap Gemini. Quant au terme d’« escroquerie », il est issu d’un échange de mails avec un·e responsable de France Travail.. Une fois l’ensemble des personnes sans emploi notées, un système d’« alertes » déclenche ainsi des contrôles lorsque l’algorithme détecte des situations « suspectes » (emploi fictif, usurpation d’identité, reprise d’emploi non déclarée)4L’algorithme utilisé semble se baser sur des arbres de décisions, sélectionnés via XGBoost. Les principaux cas d’entraînement semblent être la détection de périodes d’activité dites « fictives » – soit des périodes de travail déclarées mais non travaillées – d’usurpation d’identité et de reprise d’emploi non déclarée. Voir ce document..

Pour l’heure, France Travail s’est refusé à nous communiquer le code source de l’algorithme. Au passage, notons que ses dirigeants ont par ailleurs refusé, en violation flagrante du droit français, de fournir la moindre information aux demandeur·ses d’emploi que nous avions accompagné·es pour exercer leur droit d’accès au titre du RGPD5Nous accompagnons différentes personnes dans des demandes d’accès à leurs données personnelles. Pour l’instant, France Travail s’est systématiquement opposé à leur donner toute information, en violation du droit.. Nous avons cependant obtenu, via l’accès à certains documents techniques, la liste des variables utilisées.

On y retrouve une grande partie des données détenues par France Travail. Aux variables personnelles comme la nationalité, l’âge ou les modalités de contact (mails, téléphone…) s’ajoutent les données relatives à notre vie professionnelle (employeur·se, dates de début et de fin de contrat, cause de rupture, emploi dans la fonction publique, secteur d’activité…) ainsi que nos données financières (RIB, droits au chômage…). À ceci s’ajoute l’utilisation des données récupérées par France Travail lors de la connexion à l’espace personnel (adresse IP, cookies, user-agent). La liste complète permet d’entrevoir l’ampleur de la surveillance numérique à l’œuvre, tout comme les risques de discriminations que ce système comporte6Voir notamment nos articles sur l’algorithme de la CAF, en tout point similaire à cette page..

Profilage psychologique et gestion de masse

Fort de ce premier « succès », France Travail décide d’accroître l’usage d’algorithmes de profilage. C’est ainsi que, dès 2018, ses dirigeant·es lancent le programme Intelligence Emploi7Ce programme, financé à hauteur de 20 millions d’euros par le Fond de Transformation de l’Action Publique a été construit autour de 3 axes et s’est déroulé de 2018 à 2022. Voir notamment la note de 2020 envoyée à la DINUM par France Travail, disponible ici.. Son ambition affichée est de mettre l’intelligence artificielle « au service de l’emploi » pour « révéler à chaque demandeur d’emploi son potentiel de recrutement »8Rapport annuel 2018 de Pôle Emploi disponible ici..

Un des axes de travail retient notre attention : « Accélérer l’accès et le retour à l’emploi [via un] diagnostic “augmenté” pour un accompagnement plus personnalisé ». Ici, l’IA doit permettre de d’« augmenter la capacité de diagnostic » relative aux « traitements des aspects motivationnels » via la « détection de signaux psychologiques »9Voir cette note envoyée par Pôle Emploi à la DINUM.. En son sein, deux cas d’usage retenus sont particulièrement frappants.

Le premier est le développement d’algorithmes visant à « anticiper les éventuels décrochages », prévenir les « risques de rupture »10Voir cette note envoyée par Pôle Emploi à la DINUM. ou encore « détecter les moments où ils [les personnes au chômage] peuvent se sentir découragés ou en situation de fragilité »11Voir ce support de webinaire..

Ces travaux ont trouvé, au moins en partie12En partie puisqu’au cœur des algorithmes du JRE, nulle trace de machine learning ou de traitements statistiques complexes. Chaque score résulte de l’application de règles simples, bien loin des ambitions initiales de recours à l’intelligence artificielle. Les dirigeant·es de France Travail semblent ici avoir éprouvé les limites d’un techno-solutionnisme béat. Voir ce document. À noter aussi que ce document évoque une « brique IA Mire » portant sur la détection de « situations de décrochage ». Il se pourrait donc que des algorithmes plus avancés soient en développement., un premier aboutissement dans l’outil du Journal de la Recherche d’Emploi (JRE) actuellement expérimenté dans plusieurs régions de France13Le JRE est une refonte de l’interface numérique. Voir à ce sujet l’excellent article de Basta disponible ici. Si le JRE ne semble pas avoir été créé dans le cadre du programme Intelligence Emploi, il semble avoir été le cadre d’expérimentations de plusieurs des solutions produites. Voir ici.. Le JRE assigne à chaque incrit·e quatre scores de « profilage psychologique » visant respectivement à évaluer la « dynamique de recherche » d’emploi, les « signes de perte de confiance », le « besoin de redynamisation » ou les « risques de dispersion »14Voir le document « Fiches pratiques à destination des conseillers » portant sur le JRE disponible ici..

Ces informations sont synthétisées et présentées aux conseiller·es sous la forme d’un tableau de bord. « Parcours à analyser », « Situations à examiner », « Dynamique de recherche faible » : des alertes sont remontées concernant les chômeur·ses jugé·es déficient·es par tel ou tel algorithme. Le ou la conseiller·e doit alors faire un « diagnostic de situation » – via l’interface numérique – afin d’« adapter l’intensité » des « actions d’accompagnement ». Et là encore, ils et elles peuvent s’appuyer sur des « conseils personnalisés » générés par un dernier algorithme15Les documents les plus parlants sur la mécanisation de l’accompagnement via le JRE sont ce support et ce document à destination des conseiller·es. Voir aussi les documents que nous mettons en ligne sur l’utilisation d’IA pour générer des conseils automatisés, consultables par les personnes sans emploi et les conseiller·es..

Contrôle, mécanisation et déshumanisation de l’accompagnement : voilà la réalité de ce que le directeur de France Travail appelle « l’accompagnement sur mesure de masse »16Voir cette interview du directeur actuel de France Travail..

Diagnostic et score d’employabilité

Le second cas d’usage est tout aussi inquiétant. Il s’agit de déterminer la « qualité » d’un·e demandeur·se d’emploi. Ou, pour reprendre les termes officiels, son « employabilité »17Pour un aperçu historique de la notion d’employabilité, voir le chapitre 5 de France Travail : Gérer le chômage de massse de J.-M Pillon.. Ce projet n’est pas encore déployé à grande échelle, mais nous savons qu’une première version – basée, elle, sur des techniques d’intelligence artificielle18Voir cette note envoyée par Pôle Emploi à la DINUM en 2020. – a été développée en 202119Voir cette autre note envoyée par Pôle Emploi à la DINUM en 2021..

L’algorithme alloue à chaque inscrit·e un score prédisant ses « chances de retour à l’emploi ». Véritable outil automatique de tri des chômeur·ses, il vise à organiser la « priorisation des actions d’accompagnement »20Voir cette note envoyée par Pôle Emploi à la DINUM en 2020. en fonction d’un supposé degré d’autonomie de la personne sans emploi.

Si les informations disponibles sur ce projet sont limitées, on peut imaginer que ce score permettra le contrôle en temps réel de la « progression de la recherche d’emploi » via les actions entreprises pour améliorer « l’attractivité [de leur] profil »21Voir ce document sur l’utilisation de l’IA à Pôle Emploi.. Il serait alors un indicateur d’évaluation en continu de la bonne volonté des chômeur·ses.

Mais on peut aussi penser qu’il sera utilisé pour inciter les personnes sans emploi à se diriger vers les « métiers en tension », dont une majorité concentre les conditions de travail les plus difficiles. En demandant aux chômeur·ses d’améliorer leur score, via une réorientation, ils et elles seraient encouragé·es à accepter un emploi au rabais.

Agenda partagé & agences virtuelles

Mais l’étendue du processus de numérisation à l’oeuvre à France Travail va bien au-delà de ces exemples. Côté contrôle numérique, citons l’interface « XP RSA »22Voir ce document de présentation de XP RSA., l’outil numérique déployé dans le cadre de la récente réforme du RSA. Cette interface n’est rien d’autre qu’un agenda partagé permettant de déclarer, et de contrôler, les quinze à vingt « heures d’activité » hebdomadaires dont vont devoir s’acquitter les bénéficiaires du minima social. Son remplissage forcé est un pas supplémentaire vers le flicage des plus précaires.

Côté IA, France Travail a lancé en 2024 le programme « Data IA »23Voir ce document de présentation du programme Data IA., successeur d’Intelligence Emploi mentionné plus haut. Présenté avec fracas au salon de l’« innovation technologique » VivaTech – organisé par le groupe Publicis –, on retrouve parmi les projets en développement une IA générative visant à numériser l’accompagnement et la recherche d’emploi (« Match FT »)24Pour Match FT, voir cet entretien, ce tweet et cet article de la Banque des Territoires. Voir aussi Chat FT, l’IA générative pour l’instant dédiée aux conseillers·es, dans ce document.. France Travail s’intéresse aussi aux « maraudes numériques » pour « remobiliser les jeunes les plus éloignés de l’emploi »25Voir ce tweet. et au développement d’« agences virtuelles »26Voir ce tweet..

Austérité, automatisation et précarisation

La numérisation de France Travail signe la naissance d’un modèle de gestion de masse où coexistent une multitude d’algorithmes ayant chacun la tâche de nous classifier selon une dimension donnée. Risque de « fraude », de « dispersion », de « perte de confiance », suivi des diverses obligations : les capacités de collecte et de traitements de données sont mises au service de la détection, en temps réel, des moindres écarts à des normes et règles toujours plus complexes27Sur la réforme à venir, voir notamment cet article du Monde. Sur le triplement des contrôles, voir cet article du même journal.. Cette numérisation à marche forcée sert avant tout à contrôler les personnes sans emploi28Sur l’histoire du contrôle à France Travail, voir le livre Chômeurs, vos papiers de C. Vivès, L. Sigalo Santos, J.-M. Pillon, V. Dubois et H. Clouet, le rapport Le contrôle des chômeurs de J.-M. Méon, E. Pierru et V. Dubois disponible ici et le livre France Travail : gérer le chômage de masse de Jean-Marie Pillon..

À l’heure où Gabriel Attal annonce une énième réforme de l’assurance-chômage passée en force alors que l’Assemblée nationale est dissoute, ce contrôle ne cache plus son but : forcer les plus précaires à accepter des conditions de travail toujours plus dégradées29Sur la réforme à venir, voir notamment cet article du Monde. Sur le triplement des contrôles, voir cet article du même journal..

Loin des promesses de « libérer du temps pour les conseillers » ou d’offrir un accompagnement « plus réactif et plus personnalisé »30Voir, entre autres, cette vidéo du responsable du programme Data IA. aux personnes sans emploi, cette numérisation contribue à la déshumanisation d’un service essentiel et à l’exclusion des plus précaires, voire tend à une généralisation du non-recours aux droits. Il ne s’agit pas d’idéaliser le traitement « au guichet », mais de rappeler que la numérisation forcée accentue les écueils de ce dernier. En accompagnant la fermeture des points d’accueil, elle transfère une partie du travail administratif aux personnes usagères du service public, participant à l’éloignement de celles et ceux qui ne sont pas en mesure de le prendre en charge31Voir le livre L’Etat social à distance de Clara Deville..

En standardisant les processus d’accompagnement, via la quantification de chaque action et le profilage de toute une population, elle restreint les possibilités d’échange et supprime toute possibilité d’accompagnement réellement personnalisé32Voir le texte Déshumaniser le travail social de Keltoum Brahan et Muriel Bombardi, publié dans le numéro de février 2017 de CQFD..

En facilitant le contrôle généralisé, elle accentue enfin la stigmatisation des plus précaires et participe activement à leur paupérisation.


Mise à jour du 12 juillet 2024

À la suite de notre article, France Travail, via son directeur général Thibaut Guilly, a souhaité exercer son droit de réponse que nous publions ci-dessous in extenso.

Madame, Monsieur,

Je reviens vers vous suite à mon précédent courrier du 2 juillet.

Bien que le délai de 3 jours prévu à l’article 1.1-III de la loi n°2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique soit aujourd’hui expiré, je constate que le droit de réponse qui vous a été adressé n’a pas été publié. Pour rappel, le non-respect de cette obligation est passible d’une amende de 3 750 €.

Aussi, je réitère par la présente ma demande de publication d’un droit de réponse suite à la parution le 25 juin 2024 de l’article intitulé « A France Travail, l’essor du contrôle algorithmique » (librement accessible à l’adresse : https://www.laquadrature.net/2024/06/25/a-france-travail-lessor-du-controle-algorithmique/).

Dans cet article, vous évoquez un « service public de l’emploi largement automatisé », ainsi qu’une utilisation des algorithmes qui « contribue à la déshumanisation d’un service essentiel », favorise « la stigmatisation des plus précaires et participe activement à leur paupérisation » et constitue « un pas supplémentaire vers le flicage des plus précaires ». Il s’agirait d’une « extension des logiques de surveillance de masse visant à un contrôle social toujours plus fin et contribuant à une déshumanisation de l’accompagnement social », cette « numérisation à marche forcée ser[van]t avant tout à contrôler les personnes sans emploi ». Vous faites également état de « la fermeture des points d’accueil ».

Nous nous inscrivons en faux contre ces propos erronés qui conduisent à jeter un discrédit sur le travail des plus de 55 000 collaborateurs qui accompagnent chaque jour les demandeurs d’emploi et les entreprises et à travestir la réalité concernant l’usage que nous faisons de ces algorithmes.

L’utilisation des algorithmes au sein de France Travail ne vise en aucun cas à remplacer le travail des conseillers. L’intelligence artificielle (IA) vient en complément et ne se substitue jamais à une intervention humaine. Au contraire, nous concevons les algorithmes et l’IA comme des outils d’aide à la décision pour les conseillers ou un moyen de leur libérer du temps administratif afin de leur permettre de se consacrer pleinement à l’accompagnement des demandeurs d’emploi.

Toute utilisation d’algorithmes est en outre encadrée par une charte éthique (https://www.francetravail.org/accueil/communiques/pole-emploi-se-dote-dune-charte-pour-une-utilisation-ethique-de-lintelligence-artificielle.html?type=article) qui décrit nos engagements pour garantir un cadre de confiance respectueux des valeurs de France Travail, à l’opposé de toute « notation de chômeurs » que vous pointez dans votre article. Un comité d’éthique externe composé de personnalités qualifiées garantit le respect de ce cadre. En aucun cas, les algorithmes ne sont utilisés pour « encourager les demandeurs d’emploi à accepter des emplois au rabais ».

Concernant la « mécanisation » ou la « déshumanisation » de l’accompagnement que vous avancez, c’est méconnaitre le travail que réalisent les conseillers quotidiennement dans plus de 900 agences ou par téléphone. Aucun projet de fermeture d’agence n’est d’ailleurs envisagé contrairement à ce que vous dites et France Travail est un des rares services publics à être ouvert tous les jours, sur flux le matin et sur rendez-vous l’après-midi. Plus de 8,8 millions de personnes sont venues dans nos agences l’année dernière. Cet accueil en agence reflète justement notre politique de proximité et d’accompagnement notamment des plus précaires. L’ambition de la loi pour le plein emploi est en outre de renforcer l’accompagnement humain des plus éloignés, en particulier des bénéficiaires du RSA.

Vous parlez enfin de « flicage des plus précaires » à travers l’utilisation d’algorithmes concernant le contrôle de la recherche d’emploi et la lutte contre la fraude. Il convient tout d’abord de souligner que ce sont deux activités distinctes, le contrôle de la recherche d’emploi ne saurait être assimilé à de la lutte contre de la fraude, qui est, par définition, une activité illégale et susceptible de poursuites pénales. Sur ce dernier point, l’utilisation des données dans la lutte contre la fraude vise avant tout à protéger nos usagers. En effet, la majorité des situations recherchées par les équipes de France Travail ne concerne pas des demandeurs d’emploi mais des individus qui détournent les services d’indemnisation du chômage, bien souvent au préjudice de nos usagers : usurpation d’identité des demandeurs d’emploi pour s’approprier leurs droits à l’assurance chômage ou détourner leurs paiements, individus se fabricant un faux passé professionnel ou une fausse résidence en France pour ouvrir des droits indus. Concernant le contrôle de la recherche d’emploi, là encore nous réfutons vivement l’idée selon laquelle nous mènerions une chasse aux plus précaires. Tout demandeur d’emploi inscrit à France Travail bénéficie de droits mais a également des devoirs qui lui sont présentés dès son inscription, dont celui de rechercher activement un emploi. 600 conseillers sont dédiés à ce contrôle et là encore, l’IA est un outil d’aide et en aucun la pierre angulaire des contrôles réalisés par ces conseillers en contact avec les demandeurs d’emploi tout au long de ce processus de contrôle. Là encore votre article méconnaît le travail de nos conseillers et constitue une atteinte à leur engagement et à leur intégrité.

Je vous remercie de publier sans délai ce droit de réponse. A défaut, je me réserve la possibilité de saisir les juridictions à cet effet.

Je vous prie d’agréer, Madame, Monsieur, l’expression de mes sincères salutations.

Thibaut Guilluy

Notre réponse :

À la suite de notre article, France Travail, via son directeur général Thibaut Guilly, nous a initialement écrit pour faire des remarques d’ordre général sur notre article. Puis, dans une nouvelle lettre reçue aujourd’hui, il est subitement passé aux menaces : nous n’aurions, selon lui, pas fait droit à sa prétendue « demande de publication d’un droit de réponse ». Ces menaces sont particulièrement malvenues et, au demeurant, totalement vaines, puisque rien dans son courrier initial n’indiquait qu’il s’agissait d’une demande de droit de réponse…

Le directeur général de France Travail s’en tient à une poignée d’éléments de langage sans jamais répondre sur le fond. Pas un mot sur la multiplication des algorithmes de profilage à des fins de contrôle. Tout au plus y apprend-on que des algorithmes d’IA sont aussi utilisés à des fins de « contrôle de la recherche d’emploi », ce que nous ignorions.

Cette lettre se borne ainsi à un simple exercice, maladroit et malvenu, de communication. Elle s’essaye vainement à réfuter l’expression de « flicage des plus précaires » pour décrire les outils de surveillance des allocataires du RSA. La mise en place d’un agenda partagé pour le contrôle des 15 à 20 heures d’activité de ces dernier·ès serait ainsi – il faut savoir apprécier l’humour – une mesure visant à « renforcer l’accompagnement humain ».

Quant à l’impact de la numérisation sur l’accueil des plus précaires, le directeur général de France Travail nie la réalité, tout comme son homologue de la CNAF, afin de minimiser l’étendue de la surveillance et le projet politique sous-jacent. Qu’a-t-il donc à répondre à la Défenseure des droits qui, en 2022 dans son deuxième rapport sur la dématérialisation des services publics, rappelait la hausse des inégalités et des réclamations en raison de cette dématérialisation « à marche forcée » ?

Enfin, opposer, comme le fait cette lettre, le travail des salarié·es de France Travail et notre action de documentation et d’alerte sur les abus de l’administration est stérile : la déshumanisation et le changement de nature du service public se font non seulement au détriment des personnes au chômage mais également des agent·es de France Travail, comme l’ont dénoncé syndicats et associations au moment de la réforme de l’assurance chômage et la transformation de Pôle Emploi en France Travail33La CGT a dénoncé une réforme qui n’« est pas favorable » aux personnes sans emploi. La CGT Pôle Emploi y voit une numérisation du service public qui « détruira les nécessaires relations humaines, et accentuera la fracture numérique et donc la précarité » et une réforme qui va « renforcer les devoirs au détriment des droits », ou encore « accroître les tensions entre les agents et les demandeurs d’emploi ». Solidaires a dénoncé le caractère « trompeur » de l’accompagnement. Côté personnes sans emploi, le constat est le même : cette transformation rend les personnes « Coupable[s] d’être au chômage » d’après le comité National CGT des Travailleurs Privés d’Emploi et Précaires. Enfin, les associations de solidarité et des syndicats ont ensemble dénoncé dans le Monde le « risque des contrôles abusifs de la situation globale des ménages »..

Ce que cette lettre souligne avant tout c’est donc l’absence de recul, de capacité de remise en cause et d’esprit critique du directeur général de France Travail quant à l’extension des logiques de contrôle numérique au sein de son institution. Ou sa pleine adhésion à ce projet.

References

References
1 Voir cette note de synthèse revenant sur les premières expérimentation faites par Pôle Emploi.
2 Voir cet article sur l’implication de Cap Gemini dans la réalisation de l’outil de scoring.
3 L’expression « score de suspicion » est extraite de l’analyse d’impact disponible ici, celle de « signaux faibles » d’une note de suivi des travaux OCAPI 2018 disponible ici, celle d’« indices » de l’article présentant la collaboration de France Travail avec Cap Gemini. Quant au terme d’« escroquerie », il est issu d’un échange de mails avec un·e responsable de France Travail.
4 L’algorithme utilisé semble se baser sur des arbres de décisions, sélectionnés via XGBoost. Les principaux cas d’entraînement semblent être la détection de périodes d’activité dites « fictives » – soit des périodes de travail déclarées mais non travaillées – d’usurpation d’identité et de reprise d’emploi non déclarée. Voir ce document.
5 Nous accompagnons différentes personnes dans des demandes d’accès à leurs données personnelles. Pour l’instant, France Travail s’est systématiquement opposé à leur donner toute information, en violation du droit.
6 Voir notamment nos articles sur l’algorithme de la CAF, en tout point similaire à cette page.
7 Ce programme, financé à hauteur de 20 millions d’euros par le Fond de Transformation de l’Action Publique a été construit autour de 3 axes et s’est déroulé de 2018 à 2022. Voir notamment la note de 2020 envoyée à la DINUM par France Travail, disponible ici.
8 Rapport annuel 2018 de Pôle Emploi disponible ici.
9, 10 Voir cette note envoyée par Pôle Emploi à la DINUM.
11 Voir ce support de webinaire.
12 En partie puisqu’au cœur des algorithmes du JRE, nulle trace de machine learning ou de traitements statistiques complexes. Chaque score résulte de l’application de règles simples, bien loin des ambitions initiales de recours à l’intelligence artificielle. Les dirigeant·es de France Travail semblent ici avoir éprouvé les limites d’un techno-solutionnisme béat. Voir ce document. À noter aussi que ce document évoque une « brique IA Mire » portant sur la détection de « situations de décrochage ». Il se pourrait donc que des algorithmes plus avancés soient en développement.
13 Le JRE est une refonte de l’interface numérique. Voir à ce sujet l’excellent article de Basta disponible ici. Si le JRE ne semble pas avoir été créé dans le cadre du programme Intelligence Emploi, il semble avoir été le cadre d’expérimentations de plusieurs des solutions produites. Voir ici.
14 Voir le document « Fiches pratiques à destination des conseillers » portant sur le JRE disponible ici.
15 Les documents les plus parlants sur la mécanisation de l’accompagnement via le JRE sont ce support et ce document à destination des conseiller·es. Voir aussi les documents que nous mettons en ligne sur l’utilisation d’IA pour générer des conseils automatisés, consultables par les personnes sans emploi et les conseiller·es.
16 Voir cette interview du directeur actuel de France Travail.
17 Pour un aperçu historique de la notion d’employabilité, voir le chapitre 5 de France Travail : Gérer le chômage de massse de J.-M Pillon.
18, 20 Voir cette note envoyée par Pôle Emploi à la DINUM en 2020.
19 Voir cette autre note envoyée par Pôle Emploi à la DINUM en 2021.
21 Voir ce document sur l’utilisation de l’IA à Pôle Emploi.
22 Voir ce document de présentation de XP RSA.
23 Voir ce document de présentation du programme Data IA.
24 Pour Match FT, voir cet entretien, ce tweet et cet article de la Banque des Territoires. Voir aussi Chat FT, l’IA générative pour l’instant dédiée aux conseillers·es, dans ce document.
25 Voir ce tweet.
26 Voir ce tweet.
27, 29 Sur la réforme à venir, voir notamment cet article du Monde. Sur le triplement des contrôles, voir cet article du même journal.
28 Sur l’histoire du contrôle à France Travail, voir le livre Chômeurs, vos papiers de C. Vivès, L. Sigalo Santos, J.-M. Pillon, V. Dubois et H. Clouet, le rapport Le contrôle des chômeurs de J.-M. Méon, E. Pierru et V. Dubois disponible ici et le livre France Travail : gérer le chômage de masse de Jean-Marie Pillon.
30 Voir, entre autres, cette vidéo du responsable du programme Data IA.
31 Voir le livre L’Etat social à distance de Clara Deville.
32 Voir le texte Déshumaniser le travail social de Keltoum Brahan et Muriel Bombardi, publié dans le numéro de février 2017 de CQFD.
33 La CGT a dénoncé une réforme qui n’« est pas favorable » aux personnes sans emploi. La CGT Pôle Emploi y voit une numérisation du service public qui « détruira les nécessaires relations humaines, et accentuera la fracture numérique et donc la précarité » et une réforme qui va « renforcer les devoirs au détriment des droits », ou encore « accroître les tensions entre les agents et les demandeurs d’emploi ». Solidaires a dénoncé le caractère « trompeur » de l’accompagnement. Côté personnes sans emploi, le constat est le même : cette transformation rend les personnes « Coupable[s] d’être au chômage » d’après le comité National CGT des Travailleurs Privés d’Emploi et Précaires. Enfin, les associations de solidarité et des syndicats ont ensemble dénoncé dans le Monde le « risque des contrôles abusifs de la situation globale des ménages ».

QSPTAG #310 — 21 juin 2024

Fri, 21 Jun 2024 14:13:23 +0000 - (source)

Bloquez la VSA dans votre commune !

Vous connaissez notre campagne contre la vidéosurveillance algorithmique (VSA). Le moment est venu de nous dresser tous et toutes contre ces dispositifs de surveillance totale. Pour l’heure, la VSA est toujours illégale, en dehors du périmètre expérimental tracé par la loi Jeux Olympiques. Mais de nombreuses communes sont déjà équipées, dans une opacité organisée, sans demander l’avis des habitant·es. Et les décrets préfectoraux récupérés par notre outil Attrap’Surveillance montrent chaque jour les abus. Alors, il faut donner de la voix. Il faut se faire entendre. Écrivez à votre maire !

Aux États-Unis, où les pratiques de VSA sont en avance sur les nôtres, de grandes villes ont déjà exprimé leur refus catégorique de les utiliser pour surveiller la population. En France, Montpellier a courageusement franchi le pas en 2022. Aujourd’hui, il est temps d’interpeller le plus grand nombre possible de communes, petites ou grandes, pour faire nombre et faire entendre que nous ne voulons pas laisser ce choix de société, totalitaire et déshumanisant, s’installer partout par inertie. La surveillance n’est pas une fatalité et nous pouvons l’arrêter.

N’hésitez pas : faites entendre votre voix et celle d’un très grand nombre d’habitant·es de ce pays. Nous avons préparé un modèle de lettre à envoyer à votre mairie, que vous pouvez personnaliser comme vous voulez. Vous trouverez aussi des flyers et des affiches très faciles à adapter à votre commune, pour faire passer le message dans les rues et tout autour de vous. Tout est rassemblé sur cette page. Aidez le pays à lutter contre la surveillance et l’enfermement sur lui-même. Nous n’avons aucune raison ni aucune envie de vivre dans une prison à ciel ouvert. La liberté est collective !

Lire l’article  : https://www.laquadrature.net/2024/06/18/faites-interdire-la-videosurveillance-algorithmique-dans-votre-ville/
Trouver les éléments d’action : https://www.laquadrature.net/pasdevsadansmaville/
La page de la campagne contre la VSA : https://www.laquadrature.net/vsa/

Soutenir La Quadrature en 2024

Nous avons besoin de vous pour travailler en 2024, et nous avons pour le moment réuni 70% de notre objectif de collecte. N’hésitez pas à faire un don de soutien à l’association, ou à faire connaître notre campagne de dons autour de vous. Merci pour votre aide !

Présentation des grands chantiers de 2024 : https://www.laquadrature.net/donner/ et https://www.laquadrature.net/2023/11/15/de-nouveaux-combats-pour-2024/
Faire un don à La Quadrature : https://don.laquadrature.net/

Agenda

La Quadrature dans les médias

Vidéosurveillance algorithmiquee

Règlement CSAR

Divers


Faites interdire la vidéosurveillance algorithmique dans votre ville !

Tue, 18 Jun 2024 13:09:01 +0000 - (source)

Alors que les expérimentations de vidéosurveillance algorithmique (VSA) continuent d’être demandées et déployées par les préfectures – pendant le festival de Cannes ou à Roland-Garros par exemple -, nous lançons la deuxième phase de notre campagne de lutte contre l’empire de la surveillance ! Comme nous croyons que la mobilisation au niveau local est le moyen le plus pertinent et le plus puissant pour repousser l’envahissement de la surveillance, nous avons pensé de nouveaux outils pour aider les habitant·es des villes de France à se battre contre la VSA dans leur commune.

Il y a quelques semaines, nous avons annoncé notre plan de bataille visant à dénoncer l’hypocrisie derrière l’expansion de la surveillance algorithmique de l’espace public. En effet, les Jeux Olympiques sont instrumentalisés pour accélérer l’agenda politique des institutions et des instances policières qui souhaitent ajouter aux caméras des logiciels permettant d’analyser nos faits et gestes dans la rue. Les expérimentations « officielles » de cette technologies ont débuté en avril dernier. Elles ont eu lieu à l’occasion d’evenements festifs, que nous recensons sur notre outil collaboratif, le « Carré ». Pour la plupart, il s’agit d’opportunités pratiques pour tester ces technologies décorrélées de risques de sécurité concrets. En témoignent les justifications des autorisations préfectorales, qui prétendent expliquer le choix de surveiller le métro parisien dans le cadre d’un concert par une guerre à l’autre bout du monde ou un attentat ayant eu lieu il y a plusieurs années. Ces motifs sont copiées/collées au gré des arrêtés démontrant l’absence totale d’efforts des préfectures à contextualiser l’utilisation de cette technologie.

De plus, depuis que la « loi sur les Jeux Olympiques et Paralympiques » a créé un premier régime juridique de la VSA dans le droit français, les promoteurs de la surveillance n’hésitent pas à mettre en avant un soit disant « respect du cadre légal ». Il ne faut y voir rien d’autre qu’un écran de fumée puisque de très nombreux projets de surveillance continuent de prospérer en toute illégalité : qu’il s’agisse du programme Prevent PCP mis en œuvre dans des gares par la SNCF, ou des entreprises privées qui continuent de vendre leurs logiciels de VSA à des villes – telles que Thalès à Reims ou Briefcam à Brest -, ces initiatives locales multiples sont tolérées par les pouvoirs publics. Pour approfondir sur la situation actuelle, nous avons rassemblé et synthétisé dans une brochure (disponible ici) les informations nécessaires pour comprendre ce qu’est la VSA, les raisons de son déploiement et le projet politique cohérent qui se dessine derrière ses utilisations pour le moment temporaires. N’hésitez pas à la lire, l’imprimer et la diffuser !

Désormais, avec cette nouvelle phase de notre campagne, nous vous proposons de passer à l’action ! Si l’arrivée de la VSA est poussée par des instances nationales et les industriels de la surveillance, nous pouvons la contrer en nous y opposant de façon délocalisée et démultipliée à travers toute la France. La ville de Montpellier a ainsi adopté en 2022 une résolution interdisant la surveillance biométrique dans les rues, s’inscrivant dans la dynamique lancé par des villes états-uniennes telles que Boston ou Austin qui avaient également avaient refusé de surveiller leurs habitant·es avec des outils d’analyse biométrique.

Nous vous appelons donc à rejoindre cet élan et à porter le combat dans votre ville ! Pour cela, nous avons conçu et mis à disposition plusieurs outils sur cette page. Tout d’abord, vous trouverez une lettre-type à envoyer pour demander à votre maire de s’engager à ne jamais installer de vidéosurveillance algorithmique dans votre ville. Il ne s’agit que d’un modèle, vous pouvez évidemment l’adapter ou faire votre propre courrier.

Si vous tapez le nom de votre commune, vous pourrez télécharger plusieurs éléments de communication déclinés au nom de l’endroit ou vous vivez ! Nous vous proposons aussi bien un flyer à distribuer pour informer et alerter les personnes sur la VSA que des affiches à coller dans les rues pour visibiliser ce combat. Aussi, vous pourrez fabriquer un visuel à partager sur les réseaux sociaux afin de rendre visible la demande d’interdiction de la VSA que vous avez faite à votre maire ! N’hésitez pas à la faire à titre individuel ou avec un collectif de votre ville et à nous tenir au courant. Nous listerons ensuite sur notre site les communes qui auront été contactées dans le cadre de cette mobilisation !

L’objectif est simple : ensemble, nous pouvons démontrer qu’il existe une opposition populaire forte contre la surveillance de nos rues. En multipliant les actions dans les villes de France, nous pourrons battre en brèche le discours sécuritaire dominant qui présente ces technologies d’analyse de nos faits et gestes comme nécessaires et leur installation inéluctable. Au contraire, nous pouvons témoigner ensemble de notre refus collectif d’une surveillance policière constante, et défendre la ville comme espace de création, de liberté et de soin. Rejoignez la mobilisation, demandez l’interdiction de la VSA dans votre ville !


VSA : la surveillance bâtit son empire

Tue, 18 Jun 2024 12:10:18 +0000 - (source)

Les Jeux Olympiques vont nous laisser la surveillance de masse en héritage. En instrumentalisant cet évènement, le gouvernement a autorisé l’utilisation de la vidéosurveillance algorithmique (VSA) jusqu’en 2025 pour des situations qui dépassent largement le cadre cette compétition sportive. Ces logiciels, qui analysent les images de vidéosurveillance et envoient automatiquement des alertes à la police, sont déployés depuis des années en France en toute illégalité, sans que jamais les responsables n’aient été inquiétés. L’hypocrisie est donc totale. En légalisant quelques usages de VSA, l’État souhaite légitimer un état de fait et amorcer un projet de surveillance bien plus large de l’espace public.

Derrière cette légalisation inédite, qui porte sur un petit nombre de cas d’usage (départs de feux, individus marchant à contre-sens, etc.), ce sont d’autres applications qui pourraient à leur tour être légalisées. De nombreux responsables politiques assument publiquement de vouloir autoriser le suivi et la catégorisation biométriques de la population, y compris à travers la reconnaissance faciale ou encore la reconnaissance des émotions. Les entreprises distribuent déjà ces technologies et les propositions de légalisation sont dans les tuyaux.

C’est donc maintenant qu’il faut se mobiliser, pour résister contre cet empire de la vidéosurveillance algorithmique. Partout en France, refusons le contrôle permanent de nos faits et gestes, organisons-nous dans nos villes pour faire entendre notre voix, perturbons les expérimentations et documentons les projets illégaux qui continuent de prospérer.

Ensemble, luttons pour que l’espace public ne se transforme pas définitivement en lieu de répression policière mais reste un espace de libertés.

S’opposer aux expérimentations

Pendant toute l’année à venir, les festivals, matchs de foots ou autres marchés de Noël seront le terrain de jeu de la vidéosurveillance algorithmique. Sur la base de la loi relative aux Jeux Olympiques du 19 mai 2023, les préfectures pourront ainsi utiliser des algorithmes visant à détecter huit types de situations , dans et aux abords des lieux accueillant du public et des réseaux de transport. Franchir une ligne, marcher à contre-sens ou faire partie d’une « densité trop importante de personnes » pourront conduire à des signalement automatiques à destination de la police, dans les centres où sont visionnés les images de vidéosurveillance. Qu’on ne s’y trompe pas : le danger ne réside pas tant dans ces quelques usages limités que dans l’élargissement programmé des cas d’usage et, à terme, le projet d’une surveillance systématique et généralisée de l’espace public.

Nous vous invitons donc à prendre ces évènements comme autant d’occasions pour se rendre sur place et faire valoir notre opposition à l’accaparement sécuritaire de l’espace public !

Nous avons constitué un « kit de mobilisation » — une brochure, des affiches, des flyers, etc. — pour que chacun·e puisse se renseigner et se mobiliser contre les déploiements « expérimentaux » de VSA. En dehors de nos propositions, bien d’autres formes de contestation sont possibles pour informer la population et dénoncer cette surveillance ! Que ce soit une danse « suspecte » sous l’œil des caméras ou un courrier formel à la CNIL, toutes les manière d’exprimer son opposition seront utiles pour matérialiser notre refus collectif de cette expérimentation hypocrite et du projet politique autoritaire dont elle découle.

S’organiser

Derrière les « expérimentations », de nombreux autres systèmes de VSA sont déployés de façon illégale en France, en toute opacité, sans contrôle ni condamnation politique. C’est pour cette raison que, depuis 2019, l’initiative Technopolice lancée par La Quadrature en lien avec des collectifs locaux cherche à faire la lumière sur ces projets. Il nous faut poursuivre cet effort, en obtenant des informations sur les entreprises qui continuent de vendre leurs logiciels illégaux, et interpeller les collectivités sans scrupules qui les achètent. Là où l’action apparaît la plus pertinente et la plus concrète est à l’échelle des villes et des rues où nous vivons. Des collectifs d’habitantes et d’habitants s’organisent ainsi un peu partout dans le pays pour recenser, documenter et lutter contre ces technologies policières.

Agir

Que ce soit lors d’expérimentations ou pour lutter contre un projet dans sa ville, les modes d’actions à explorer sont multiples. Voici des outils pour agir où que vous soyez et de la manière que vous préférez.

  • Demander l’interdiction de la VSA dans sa ville : c’est l’action facile que nous avons décidé de mettre en avant dans le cadre de cette campagne. Que vous apparteniez à un collectif ou le fassiez de manière individuelle, nous vous expliquons ici comment participer à cette action à l’échelle de votre commune.

  • S’informer et informer sur la VSA : Nous avons rassemblé dans une brochure des éléments pour comprendre ce que recouvre politiquement et techniquement la vidéosurveillance algorithmique. Elle est disponible ici. Ce document est fait pour être diffusé ! Alors lisez-le, imprimez-le, envoyez-le, laissez-le traîner… Bref, partagez-le le plus possible !

  • Demander de l’information à sa commune : Un des principaux moteurs du déploiement des technologies policière réside dans l’opacité complète qui les entoure. Pour battre en brèche les projets de surveillance il faut donc les rendre visibles, en comprendre les contours et révéler leur fonctionnement. Les demandes d’accès aux documents administratifs (dites « demandes CADA ») sont un outil efficace à la portée de toutes et tous pour obtenir des éléments sur les dispositifs de sa ville. Pour réaliser une demande CADA, vous pouvez suivre le guide dédié. Nous vous invitons également à utiliser la plateforme MaDada pour centraliser, suivre et partager les différentes demandes que vous avez réalisées.

  • Enquêter et faire de la veille : De nombreux autres moyens d’enquête existent pour trouver des informations, comme la recherche en source ouverte sur les sites internet des entreprises de surveillance ou des collectivités, qui permet souvent de trouver des descriptions détaillées de technologies ou de cas d’usages déployés dans certaines villes. On peut également se plonger dans la lecture de compte-rendus de conseils municipaux ou assister à des réunions publiques.

  • Repérer les arrêtés préfectoraux : Les « expérimentations » de VSA mises en œuvre dans le cadre de la loi sur les Jeux Olympiques, ainsi que les utilisations de drones policiers, sont autorisées par des décisions préfectorales, souvent adoptées au dernier moment et en toute discrétion. Nous venons de lancer Attrap’Surveillance, un outil libre qui permet de rechercher et de trouver automatiquement ces autorisations dans les « recueils des actes administratifs » des préfectures. De cette manière, il s’agit d’informer la population quant à ces autorisation de surveillance pour permettre à toutes et tous de s’y opposer. Nous avons encore besoin d’aide pour l’améliorer, n’hésitez pas à contribuer au développement de cet outil, à nous suggérer des modifications…

  • Visibiliser la surveillance dans l’espace public : Les caméras, qu’elles soient ou non dotées de logiciels d’analyse algorithmique, sont de plus en plus présentes dans nos villes et villages. Ces dispositifs sont le plus souvent juchés en haut d’un mobilier urbain conçu pour les faire disparaître. En les visibilisant, on matérialise une surveillance que certains voudraient rendre aussi discrète que possible et indolore. Il s’agit ainsi de matérialiser le contrôle de nos déplacements rendu possible par l’objectif de ces caméras. Pour assurer cette visibilité de l’infrastructure de vidéosurveillance, on peut organiser des « balades cartographiques » pour repérer les emplacements et modèles des caméras et les répertorier sur une carte accessible en ligne (voir cette vidéo qui explique comment organiser une cartographie des caméras et renseigner leur emplacement dans Openstreetmap). On peut également interpeller les passant·es en tractant, en accrochant leur regard au travers d’affiches ou des stickers.

  • Interpeller les élu·es : Les projets de surveillance urbaine sont généralement décidés à l’échelle locale. Interpeller son maire est une manière de demander des comptes. Vous pouvez exiger de lui ou d’elle, à l’instar de la ville de Montpellier, d’interdire tout logiciel de vidéosurveillance algorithmique dans sa ville ! Aussi, la loi relative aux Jeux Olympiques prévoit que l’expérimentation soit évaluée selon certains critères, dont la « perception » du public. N’hésitez donc pas à aller à la rencontre de parlementaires de votre circonscription dire tout le mal que vous pensez de ces dispositifs. Ce sont elles et eux qui auront à se prononcer sur la suite du processus de légalisation de la VSA.

  • Organiser des évènements : La sensibilisation des habitantes et habitants passe par des échanges et des rencontres, par des festivals, des expositions ou des projections documentaires autour de la surveillance. Tous les moyens sont bons pour tenir la VSA et son monde en échec !

Des groupes locaux opposés à la Technopolice existent déjà, comme à Saint-Étienne, Paris et sa banlieue, Marseille ou Montpellier. N’hésitez pas à les rejoindre ou à en créer dans votre ville. Pour s’organiser, échanger et faire résonner nos mobilisations, l’initiative Technopolice propose un forum public ainsi qu’une plateforme de documentation en écriture collaborative appelée le « Carré ». Vous pouvez aussi rejoindre le groupe de discussion sur Matrix. De nombreux autres outils similaires visant à appuyer nos combats existent par ailleurs ou sont encore à inventer !

Kit de mobilisation

Nous avons réalisé des affiches et des brochures que vous pouvez réutiliser librement, imprimer, distribuer et afficher partout ! Vous pouvez aussi vous mobiliser avec d’autres groupes Technopolice, voyez la section Agir.

Affiches


Télécharger le PDF avec les affiches !

Brochure


Lire la brochure en ligne

📃 Version pour consultation numérique ( double-pages )

📕 Version pour impression ( page par page )

Version pour impression ( pré-imposée pour brochage )


QSPTAG #309 — 7 juin 2024

Fri, 07 Jun 2024 16:30:22 +0000 - (source)

Pourquoi le blocage de TikTok est un précédent inquiétant

Lors des événements violents qui ont secoué la Kanaky-Nouvelle-Calédonie au mois de mai, le gouvernement avait décidé de bloquer sur ce territoire l’accès au réseau social TikTok, accusé d’être un moyen d’entretenir la révolte d’une partie de ses habitant·es. Pleinement conscients de la toxicité de ce réseau social comme de nombreux autres, nous avions pourtant attaqué la décision du gouvernement devant le Conseil d’État, en raison de son atteinte exceptionnelle au régime de l’État de droit et de la liberté d’expression, une première dans un pays démocratique de l’Union européenne.

Le Conseil d’État a rejeté notre demande, validant la légalité confuse invoquée par le gouvernement pour justifier son geste, flottant entre « état d’urgence » et « circonstances exceptionnelles », tout autant que la légèreté des preuves qu’il apportait pour appuyer ses affirmations sur le rôle joué par TikTok dans les émeutes. Depuis cette décision, l’état d’urgence a été levé et l’accès au réseau rétabli.

Mais la décision du Conseil d’État, que nous avions sollicité dans la cadre d’un recours en référé-liberté, portait sur l’urgence à maintenir ou à suspendre la décision du gouvernement. C’est ce caractère d’urgence qui a été refusé, mais la décision ne portait pas sur le fond de la légalité ou de l’illégalité de l’action du gouvernement, pourtant condamnée sur le principe par les plus hautes cours européennes (CEDH) ou les instances internationales (Nations Unies). C’est pourquoi nous avons décidé de déposer un nouveau recours devant le Conseil d’État, pour l’obliger à statuer a posteriori sur la légalité de la coupure arbitraire d’une partie d’Internet par un gouvernement. L’enjeu n’a évidemment rien à voir avec TikTok, mais concerne directement le droit des habitant·es de l’Union européenne à ne pas être privé·es à l’avenir de leurs moyens de communication, du jour au lendemain, par un gouvernement livré à ses plus bas instincts répressifs.

Lire l’article : https://www.laquadrature.net/2024/06/05/blocage-de-tiktok-en-nouvelle-caledonie-retour-sur-un-fiasco-democratique/

Analyse du règlement IA

Le règlement européen sur l’Intelligence artificielle (IA Act) a été adopté le 21 mai dernier. Au début des négociations autour de ce texte en 2021, les intentions annoncées pouvaient laisser espérer qu’il encadrerait ou interdirait l’usage des techniques d’IA les plus attentatoires aux droits individuels et collectifs, comme la reconnaissance faciale, ou les algorithmes de contrôle policier, administratif et de « notation sociale ». Mais l’insistance des États membres, la France en tête, a eu raison de ces bonnes intentions.

Cette approche de l’IA comme « marché » et comme moyen de croissance économique réduit délibérément les garde-fous censés encadrer l’usage de l’IA pour la surveillance des populations, en créant de nombreuses exceptions par lesquelles l’industrie et les gouvernements pourront justifier les pires usages policiers. Une analyse détaillée à lire sur notre site.

Lire l’analyse du règlement IA : https://www.laquadrature.net/2024/05/22/le-reglement-ia-adopte-la-fuite-en-avant-techno-solutionniste-peut-se-poursuivre/

Loi contre les ingérences étrangères

Dans le contexte géopolitique que l’on connaît, le gouvernement a décidé de soutenir, par l’intermédiaire du député Sacha Houlié (Renaissance), une proposition de loi pour « Prévenir les ingérences étrangères en France ». Parmi les diverses dispositions envisagées, dont un contrôle serré des financements associatifs venus de l’étranger, il s’agit d’autoriser les services de renseignement à utiliser pour de nouvelles finalités les fameuses « boîtes noires » légalisées en 2015 par la loi Renseignement.

Ces « sondes » surveillent les réseaux de télécommunication (Internet et téléphonie) à la recherche de signaux susceptibles d’attirer l’attention des service de renseignement. Le loi de 2015 imposait quelques limites fragiles à cette surveillance de masse, en le limitant à la lutte antiterroriste, avec des obligations d’évaluation et de contrôle, mais avec une définition trop tolérante de ce qui est considéré comme du terrorisme, pouvant englober l’activisme écologique par exemple. La nouvelle proposition de loi viendrait encore élargir ce cadre, avec des champs mal définis comme « l’indépendance nationale » ou « les intérêts majeurs de la politique étrangère ».

L’Observatoire des Libertés et du Numérique (OLN), un collectif d’association de défense des libertés dont La Quadrature fait partie, a rédigé un communiqué pour dénoncer le risque que cette surveillance accrue fait peser sur nos libertés collectives. Nous signons et publions ce communiqué sur notre site.

Lire le communiqué de l’OLN : https://www.laquadrature.net/2024/05/30/proposition-de-loi-ingerences-etrangeres-une-nouvelle-etape-dans-lescalade-securitaire/

Soutenir La Quadrature en 2024

Nous avons besoin de vous pour travailler en 2024, et nous avons pour le moment réuni 67% de notre objectif de collecte. N’hésitez pas à faire un don de soutien à l’association, ou à faire connaître notre campagne de dons autour de vous. Merci pour votre aide !

Présentation des grands chantiers de 2024 : https://www.laquadrature.net/donner/ et https://www.laquadrature.net/2023/11/15/de-nouveaux-combats-pour-2024/
Faire un don à La Quadrature : https://don.laquadrature.net/

Agenda

La Quadrature dans les médias

À voir

Blocage de TikTok

Recours

Délai

Décision

Déblocage

Conséquences

Vidéosurveillance algorithmique (VSA)

Loi SREN

Loi sur les ingérences étrangères


Powered by VroumVroumBlog 0.1.31 - RSS Feed
Download config articles