Autoblog de la La quadrature du net

Ce site n'est pas le site officiel de la Quadrature du net.
C'est un blog automatisé qui réplique les articles de laquadrature.net

Coup d’État sur la « loi haine »

Wed, 22 Jan 2020 11:17:48 +0000 - (source)

La loi « contre la haine » s’est transformée en loi sécuritaire au nom de la lutte « anti-terroriste ». Ce bouleversement a été acté hier à 22h30, par un amendement de dernière minute proposé par le gouvernement et adopté par les députés serviles de l’Assemblée nationale. Ce coup de force du gouvernement, imposé in extremis, est une nouvelle démonstration d’anti-parlementarisme. L’honneur des députés exige qu’ils rejettent la loi dans son ensemble.

Alors que la loi exigeait initialement de retirer les contenus illicites en 24 heures, elle impose désormais aux plateformes de retirer en une heure les contenus que la police lui signalera comme relevant du terrorisme ou d’abus sur mineurs. La police décidera seule des contenus relevant du terrorisme – sans le contrôle d’un juge. On l’a déjà vu abuser illégalement de ce pouvoir pour qualifier des propos militants de « terroristes » afin de les faire censurer – la justice avait alors attendu plus d’une année pour dénoncer ces abus de la police.

De plus, alors que la loi ne concernait initialement que les plateformes ayant plusieurs millions de visiteurs par mois (Facebook, Twitter, Youtube…), les nouvelles mesures « anti-terroristes » visent désormais n’importe quelle plateforme, de toute taille. Il pourra s’agir du forum de n’importe quel site de presse, d’une plateforme militante, d’un petit hébergeur associatif ou de tout nœud d’un réseau social décentralisé tel que Mastodon ou PeerTube.

Le délai d’une heure est matériellement impossible à respecter pour la grande majorité des plateformes Web (typiquement pour les signalements qui leur seraient faits de nuit). Ces plateformes n’auront d’autres choix que de fermer boutique ou de déléguer leur modération aux outils de censure automatisée fournis par Google et Facebook. Dans tous les cas, les grands vainqueurs seront ces deux dernières entreprises, dont la concurrence sera anéantie ou mise sous leur joug.

Enfin, alors que la loi initiale ne prévoyait que des sanctions financières, les nouvelles mesures prévoient des sanctions concrètes, drastiques. Si une plateforme ne censure pas un contenu dans l’heure qui suit sa notification par la police, la police pourra exiger que les fournisseurs d’accès à Internet empêchent l’accès à cette plateforme depuis la France.

Une concentration totale des pouvoirs

La concentration des pouvoirs dans les mains de la police est totale : c’est à la fois elle qui décide quelles plateformes attaquer, qui qualifie un contenu comme étant illégal et qui met en œuvre sa sanction. L’ensemble du Web français est à sa merci.

Si la police était mal intentionnée, il lui suffirait de publier anonymement et au milieu de la nuit des messages « terroristes » sur les plateformes de son choix pour les faire censurer (car presque aucune plateforme ne peut avoir des modérateurs réveillés toute la nuit pour répondre dans l’heure à la police). Rien dans la loi n’empêche de tels abus.

Notons que cette situation n’est pas entièrement nouvelle : c’est la loi anti-terroriste de 2014 qui avait créé ce dispositif de censure policière. À l’époque toutefois, le délai pour répondre à la police était de 24 heures. Il passe aujourd’hui à 1 heure, démultipliant les risques d’abus.

Un coup de force anti-parlementaire

Le Parlement n’a jamais eu l’occasion de débattre des dangers de ce nouveau délai d’une heure imposé à l’ensemble du Web. Le Parlement n’a même pas eu l’occasion d’en prendre connaissance. Pendant des mois de débats sur la proposition de loi « contre la haine », le Parlement n’a parlé que de sujets bien éloignés du terrorisme. Ce n’est qu’au dernier moment, en séance publique lors de la 2ème lecture à l’Assemblée nationale, et alors que le sujet n’avait pas été abordé en commission des lois, que le gouvernement est parvenu à lui imposer ces changements, par surprise et par ignorance. Il aurait pourtant fallu en débattre pendant des mois, en auditionnant des dizaines d’acteurs, pour prétendre respecter nos principes démocratiques.

La situation a tout pour rappeler un autre dossier : le règlement européen contre les contenus terroristes, qui prévoit lui aussi un délai de retrait en une heure. L’an dernier, la Commission européenne et les États membres avaient exercé une terrible pression sur le Parlement européen pour qu’il adopte en première lecture un texte en urgence avant les élections européennes (voir notre page de campagne). Tout avait été fait pour empêcher un véritable débat, mais il avait pu au moins durer quelques semaines – permettant notamment de limiter la censure policière par l’autorisation préalable d’un juge ou d’une autorité indépendante (et la loi française serait ici contraire à la position du Parlement européen).

Hier, le débat n’a même pas eu lieu.

Le gouvernement semble s’être lassé de la comédie démocratique. L’avis des parlementaires n’a plus aucune conséquence sur le processus législatif : à quoi bon leur permettre de s’en faire un ? Autant gagner du temps et leur demander de tout signer à la dernière minute et sans leur expliquer.

Si les députés ont encore un semblant de respect pour leurs fonctions démocratiques, ils doivent s’opposer à cette proposition de loi. Au moins du fait que le gouvernement a entièrement nié et insulté celles-ci hier. Et du fait, aussi, que le gouvernement a manipulé diverses volontés et associations luttant contre la haine afin de dévoyer au final la loi vers ses objectifs purement sécuritaires.

Formellement, l’Assemblée nationale doit encore décider d’adopter ou non cette proposition de loi dans son ensemble aujourd’hui. Tout député qui ne votera pas contre cette loi actera que le gouvernement l’a démis de ses fonctions.


Safe City à Marseille : Premier recours contre la vidéosurveillance automatisée

Mon, 20 Jan 2020 08:59:51 +0000 - (source)

Nous venons de déposer, avec la Ligue des droits de l’Homme, un recours en référé devant le tribunal administratif de Marseille pour lui demander d’annuler l’installation dans la ville d’un dispositif de vidéosurveillance automatisée (appelé « vidéoprotection intelligente »). Ce dispositif, décidé par la ville de Marseille, prévoit la mise en place de nouvelles technologies de surveillance dans l’espace public qui, pour l’essentiel, relèvent d’une surveillance biométrique généralisée : détection de comportements anormaux, suivi de silhouettes ou d’individus, captations sonores…

D’autres dispositifs similaires sont déjà installés en France ou sont en train de l’être, le tout dans l’opacité la plus complète. Leurs promoteurs considèrent que le cadre juridique de la vidéosurveillance leur suffit. Au même titre que la reconnaissance faciale, qui n’est qu’une des nombreuses couches applicatives de la vidéosurveillance automatisée, ces dispositifs participent pourtant à la mise sous surveillance totale de nos villes.

La Technopolice continue de se déployer en France, et la vidéosurveillance automatisée (ou « vidéoprotection intelligente » selon ses promoteurs) [1] est une de ses principales émanations. Fondée sur l’utilisation d’algorithmes déployés sur un système de vidéosurveillance, ces dispositifs promettent de détecter automatiquement dans l’espace public des objets abandonnés, des mouvements de foule, des « comportements anormaux » (gestes brusques, maraudages, agression…), de faciliter le suivi d’individus (par la silhouette, la démarche…), ou de faire des recherches par « filtres » sur des images enregistrées (à partir de photos d’un individu qu’il s’agirait de retrouver dans les milliers de flux vidéos afin de suivre son parcours). Après la multiplication des caméras de vidéosurveillance sur le territoire français, plusieurs entreprises cherchent à vendre aux collectivités ce système de « vidéo intelligente ». Comme l’expliquent les industriels, l’intérêt consiste à « pallier le manque récurrent de personnel disponible pour visionner les images de vidéoprotection ainsi que la capacité de concentration de ces agents », de « de limiter leur travail à une simple confirmation d’alertes ». Il est même avancé que «  la vidéoprotection ne saurait être efficace sans un système auto-intelligent permettant de trier et filtrer les images à analyser, et ce à une grande échelle ». Depuis plus de 10 ans, la vidéosurveillance a déferlé sans but sur nos villes : il semble temps de la rendre opérationnelle à travers l’automatisation.

De tels dispositifs mettent gravement en danger nos droits et libertés. Ils accroissent considérablement la capacité des services de police à nous identifier et à nous surveiller en permanence dans l’espace public. Tout comme la reconnaissance faciale, ils entraînent un contrôle invisible et indolore de la population, considérée comme suspecte de facto. Construits dans l’opacité la plus complète, il est par ailleurs impossible de comprendre ce qu’ils détectent avec exactitude : que veut dire Thalès quand il parle de « comportement inhabituel » et de suivi de « personnes suspectes » ? Que sous-entend l’entreprise Huawei quand, dans la description de son projet à Valenciennes, elle laisse inachevée sa liste des cas d’alerte relevés par la machine ( « traitement intelligent de l’image avec détection des mouvements de foules, objets abandonnés, situations inhabituelles…  ») ? Enfin, le suivi de « personnes suspectes » comprend-t-il la reconnaissance de démarches, donnée extrêmement individualisante et qui est bien plus difficile à dissimuler qu’un visage ?

Des systèmes de vidéosurveillance automatisée sont pourtant déjà en place en France, à Valenciennes donc, mais aussi à Nice, à Toulouse, à La Défense et bientôt dans les Yvelines. D’autres projets sont sûrement en cours, mais les informations sont difficiles à trouver. Leurs promoteurs considèrent en effet que, dans la plupart des cas, ces nouveaux ajouts à la vidéosurveillance rentrent dans le cadre de la « vidéosurveillance classique » et n’ont pas à être rendus publics.

Marseille, ville-test

Dans le cadre de la campagne Technopolice, et à travers des demandes d’accès aux documents administratifs, nous avons appris qu’en 2015, la mairie de Marseille avait lancé un appel d’offres pour installer un de ces systèmes de vidéosurveillance automatisée dans sa ville et qu’en novembre 2018, ce marché avait été attribué à une entreprise. Croisée au salon Milipol, l’adjointe au maire de Marseille en charge de la sécurité, Caroline Pozmentier, nous a confirmé qu’il s’agissait du groupe SNEF, un intégrateur de solutions de vidéosurveillance basé dans la citée phocéenne. Nous avons fini par avoir communication de certains documents liés à ce marché, dont le « Programme Fonctionnel Technique final » qui détaille précisément ce que la mairie entend mettre en place.

Dans ce document, il est ainsi indiqué que « les opérateurs ne peuvent pas visualiser l’ensemble des flux » et qu’il « est donc nécessaire que la solution logicielle permette d’effectuer de façon autonome cette visualisation ». Parmi les fonctionnalités envisagées, se trouve le « traitement automatique de donnés (…) afin de détecter des anomalies/incidents/faits remarquables », la « détection d’anomalies non identifiables par un opérateur » et la « gestion de l’espace public, analyse des piétons/véhicules ainsi que des comportements ». On y retrouve les mêmes cas d’usage que dans d’autres systèmes : détection d’ « objets abandonnés », de « TAG » (graffitis) et de « vol/disparition/destruction de mobilier urbain ». Il est aussi précisé que l’outil doit aider dans le cadre d’affaires judiciaires et permettre de « faire des recherches à l’aide de filtres », l’un de ces filtres étant « individu (description, avatar, photo) ». Une dernière partie intitulée « Fourniture et intégration de fonctionnalités complémentaires » indique que la mairie se réserve la possibilité d’ajouter de nouvelles fonctionnalités dont la « détection sonore » (explosion, coup de feu…), la « reconstitution d’évènements » (comme le parcours d’un individu) ou la détection de « comportements anormaux » (bagarre, maraudage, agression).

Le mois dernier, dans un article de Télérama, le journaliste Olivier Tesquet révélait que le dispositif devait être installé à Marseille « d’ici à la fin de l’année 2019 » et que « la Cnil n’a jamais entendu parler de ce projet ».

L’étendue de ce projet, la description extensive de ses fonctionnalités et sa récente mise en place nous ont poussé à agir le plus vite possible.

Un recours contre la vidéosurveillance automatisée, premier du genre en France

Dans notre recours déposé lundi devant le tribunal administratif de Marseille, nous reprenons certains des arguments déjà développés dans notre recours contre les portiques de reconnaissance faciale dans deux lycées de la région PACA (un projet depuis entravé par la CNIL). Nous soulignons ainsi que la décision de la mairie de mettre en place ce dispositif n’a été précédée d’aucune analyse d’impact ou de consultation de la CNIL, contrairement à ce qui est prévu dans la directive dite « police-justice » qui encadre les pouvoirs de surveillance des autorités publiques dans l’Union européenne. Nous soulignons également que la vidéosurveillance automatisé n’est encadrée par aucun texte juridique alors qu’il s’agit d’un type d’ingérence dans la vie privée tout-à-fait nouveau, et bien différent de la vidéosurveillance « classique » : l’automatisation transforme la nature de l’ingérence induite par la vidéosurveillance. Les nouveaux équipements déployés à Marseille disposent en outre de capteurs sonores (ces mêmes capteurs sonores que dénonçait la Cnil dans le projet de Saint-Etienne). De manière générale, le système entier conduit à passer d’une surveillance « passive » à une surveillance « active »). Comme pour les lycées, nous avons aussi attaqué le caractère manifestement excessif et non justifié de la collecte de données.

Le recours démontre par ailleurs que la grande majorité du traitement de données qui est fait dans ce dispositif est un traitement de données biométriques, donc soumis aux dispositions spécifiques de la directive police-justice sur les données sensibles (dont l’utilisation est beaucoup moins permissive que pour les autres types de données personnelles). En effet, les données biométriques sont définies comme des données personnelles « résultant d’un traitement technique spécifique, relatives aux caractéristiques physiques, physiologiques ou comportementales d’une personne physique, qui permettent ou confirment son identification unique ». Or, comme l’a souligné le Comité européen de protection des données, une « identification unique » n’implique pas nécessairement de révéler l’état civil d’une personne mais, plus largement, de pouvoir individualiser une personne au sein d’un groupe, ce qui est bien le cas en espèce. Or, une fois la qualité de donnée biométrique établie, la directive police-justice exige une « nécessité absolue » pour les analyser. Ce qui n’est clairement pas le cas ici : d’autres moyens, humains, existent déjà pour analyser les images et mener les enquêtes.

Enfin, dans ce recours, nous détaillons pourquoi, en confiant à la SNEF et à ses algorithmes, l’identification, la catégorisation et la détection d’incidents, d’anomalies et de comportements suspects sur la voie publique (certains explicitement « non identifiables par un opérateur »), et en faisant de son outil une véritable « aide à la décision » pour la police municipale, la mairie a délégué à une entreprise privée une mission de surveillance généralisée de la voie publique. Ce qui, selon le Conseil Constitutionnel est contraire à « l’exigence, résultant de l’article 12 de la Déclaration des droits de l’homme et du citoyen de 1789, selon laquelle la garantie des droits est assurée par une « force publique » ».

Encore une fois : d’autres dispositifs semblables sont actuellement déployés en France ou s’apprêtent à l’être : Nice, Toulouse, Valenciennes, La Défense… Nous vous invitons à réutiliser nos arguments pour multiplier les contentieux et tenir en échec l’expansion de la surveillance algorithmique de nos villes et de nos vies.

Rejoignez Technopolice.fr pour participer à la veille, l’analyse et la lutte de ces nouveaux dispositifs.

[1] Si les termes peuvent paraître proches, il est important de refuser de considérer un tel système comme « intelligent »


Lettre commune contre la loi « haine »

Thu, 16 Jan 2020 17:56:48 +0000 - (source)

Nous venons d’envoyer aux députés la lettre reproduite ci-dessous, pour s’opposer à la loi « haine ».

Nous la signons aux côtés de :

La loi sera examinée par l’Assemblée nationale ce mardi 21 janvier. Vous aussi, contactez les députés pour leur demander de rejeter ce texte en visitant cette page.

Objet : Appel collectif à préserver nos droits fondamentaux dans l’espace public en ligne – Proposition de loi visant à lutter contre la haine sur Internet

Madame la garde des Sceaux,
Monsieur le secrétaire d’État chargé du Numérique,
Madame la Rapporteure,
Mesdames et Messieurs les Député(e)s

En tant que principaux représentants de la société civile numérique française, acteurs de la défense des droits et de la mobilisation citoyenne en ligne, nous partageons une profonde inquiétude quant au risque que ferait encourir à nos droits et libertés fondamentaux la proposition de loi visant à lutter contre la haine sur Internet, si elle imposait aux opérateurs de plateformes un délai de 24h pour décider du retrait des contenus qui leur seront signalés. À l’occasion de sa nouvelle discussion au sein de l’Assemblée nationale, nous portons un appel fort à tenir compte, dans la version finale du texte, des alertes que chacune de nos organisations a pu individuellement ou collectivement porter.

Les opérateurs de plateformes participent désormais grandement à la structuration de l’espace public en ligne. Engagés dans la préservation d’un espace en ligne libre et respectueux de nos valeurs démocratiques et de nos droits fondamentaux, nous partageons la nécessité de questionner le rôle des grandes plateformes dans la lutte contre les contenus haineux sur Internet. Paradoxalement, cette exigence se traduit, dans le texte discuté, par le renforcement du rôle de ces mêmes acteurs dans le contrôle de notre espace public au détriment du premier garant de nos libertés individuelles qu’est le juge. De plus, cette logique tend à renforcer une situation d’oligopole dans laquelle nous nous trouvons déjà, par un encouragement à l’usage de solutions détenues par les acteurs aux ressources les plus grandes.

En contournant les prérogatives du juge judiciaire, l’obligation de retrait des contenus haineux par les opérateurs de plateformes dans un délai de 24 heures porte atteinte aux garanties qui nous permettent aujourd’hui de préserver l’équilibre de nos droits et libertés fondamentaux. Au regard des dispositions du texte, les opérateurs de plateformes seront incités à opter pour de la surcensure afin d’éviter d’être sanctionnés. À ce titre, nous nous inquiétons du rôle confié à des dispositifs technologiques de filtrage automatisés, qui font encore preuve de limites techniques profondes dans leur capacité à modérer, y compris parmi ceux les plus avancés. Ces limites sont d’autant plus prégnantes en ce qui concerne les contenus haineux dont la caractérisation juridique est souvent complexe. Or, le texte porte une acception particulièrement large de ces derniers.

Au regard de ses conséquences sur notre société, et en premier lieu sur les victimes de ces atteintes à la dignité humaine, nous devons considérer avec gravité le phénomène de propagation des contenus haineux en ligne. Il est, à cet égard, primordial d’engager un plan ambitieux d’éducation au numérique et de penser de manière plus transversale la régulation du numérique. Par ailleurs, alors que la France entend jouer un rôle majeur dans la politique numérique future de l’Union européenne, il est essentiel que la proposition visant à lutter contre la haine en ligne puisse se faire en adéquation avec le droit européen, au risque sinon de fragiliser nos dispositifs juridiques ainsi que de fragmenter toujours plus la stratégie numérique pour l’Europe et de mettre à mal son efficience. L’Union européenne se doit de rester au premier rang de la défense de nos valeurs fondamentales dans le champ numérique, et la France se doit d’en demeurer le porte-voix.

Nous vous savons attentifs à l’équilibre entre nos droits fondamentaux, ainsi qu’à la préservation de notre souveraineté. Aussi, nous nous associons collectivement pour vous appeler à en tenir compte dans le cadre de cette nouvelle lecture.

Restant à votre disposition pour contribuer à vos réflexions, nous vous prions d’agréer, Madame la garde des Sceaux, Monsieur le secrétaire d’État chargé du Numérique, Madame la Rapporteure, Mesdames et Messieurs les Député(e)s, l’expression de notre très haute considération.


La pire version de la loi haine, adoptée en commission des lois de l’Assemblée nationale

Wed, 15 Jan 2020 11:35:17 +0000 - (source)

Sans beaucoup de surprise, ce que nous redoutions s’est bien réalisé. Hier soir, en commission des lois de l’Assemblée nationale, Laetitia Avia est parvenue à rétablir la même version du texte (à quelques modifications près) qu’elle avait fait adopter l’été dernier par l’Assemblée nationale. Les timides corrections que le Sénat avait introduites le mois dernier ont été balayées.

Qu’importe : en démocratie, c’est l’Assemblée nationale, entièrement tenue par les fidèles du gouvernement, qui décide seule des lois à adopter. Comme pour la loi « fakenews » de 2018 (adoptée en procédure accélérée et contre deux votes contraires du Sénat), la loi « contre la haine » passera le 30 janvier une dernière fois au Sénat (pour rien) avant un dernier vote final à l’Assemblée nationale début février. C’est ce dernier vote qui aura le dernier mot.

Avant cela toutefois, le 21 janvier, l’Assemblée nationale devra encore confirmer le texte adopté hier en commission des lois. Si nous échouons à l’en dissuader, les chances d’y parvenir en février semblent bien minces.

Et pourtant, en dehors du Parlement, ce texte fait l’unanimité contre lui : Commission européenne, CNNum, ARCEP, ONU, associations de défense des personnes que cette loi prétend défendre (relire notre bilan).

Appelons les députés pour exiger qu’ils rejettent cette loi aussi dangereuse pour nos libertés que contre-productive pour lutter contre la haine.

Rendez-vous sur cette page pour les contacter et relire nos arguments contre ce texte.


Le Conseil constitutionnel autorise le fisc à la surveillance de masse

Mon, 30 Dec 2019 07:01:11 +0000 - (source)

Le Conseil constitutionnel, dans sa décision rendue vendredi dernier, vient de considérer que la surveillance généralisée des réseaux sociaux prévue par l’article 154, ex-57, de la loi de finances pour 2020 est conforme à la Constitution.

Comme nous le dénoncions, cet article prévoit une collecte puis une analyse de masse des données publiques des réseaux sociaux. Des données sensibles seront collectées, par exemple sur notre vie sexuelle, politique ou religieuse. Au point 87 de sa décision, le Conseil constitutionnel s’est contenté d’interdire la seule exploitation des données sensibles, laissant possible leur collecte en masse, ce qui est tout aussi dangereux et contraire au droit européen.

L’article 10 de la directive police-justice n° 2016/680 interdit tout traitement de données sensibles qui ne soient pas justifié par une « nécessité absolue ». En l’espèce, la lutte contre les infractions fiscales peut être réalisée par bien d’autres moyens humains déjà mis en œuvre. Ni le gouvernement, ni le Conseil n’ont été capables d’expliquer en quoi la surveillance algorithmique est nécessaire à la lutte contre la fraude fiscale.

Enfin, le Conseil constitutionnel prétend que les contrôles fiscaux ne seront pas déclenchés automatiquement par les algorithmes de détection de fraude, mais reposeraient sur un travail humain. Cette affirmation traduit une grande naïveté et laisse en tout état de cause la porte ouverte à plus d’arbitraire dans les décisions administratives : comment contrôler le résultat d’un algorithme qui ne peut être expliqué et reproduit1Le Conseil constitutionnel estime que l’obligation de « corroboration et enrichissement » exigée par la loi écarterait tout contrôle fiscal automatique. Pourtant, avec l’utilisation d’algorithmes auto-apprenants dont le résultat ne peut être reproduit et expliqué, cette opération ne sera rien d’autre qu’un contrôle fiscal déguisé. ?

La boîte de Pandore a été ouverte. En validant le principe de surveillance de masse des réseaux sociaux, le Conseil constitutionnel permet aux autres administrations de pouvoir réclamer leur part de surveillance généralisée, voire de se servir directement dans les données collectées par le fisc. Le ministre de l’action et des comptes publics, Gérald Darmanin, défend inlassablement cette nouvelle surveillance et promettait 10 millions d’euros par an pour seulement deux algorithmes. Son joujou désormais approuvé constitue un pas supplémentaire pour remplacer l’humain·e par la machine, le·la citoyen·ne par une ligne dans un tableur.

References   [ + ]

1. Le Conseil constitutionnel estime que l’obligation de « corroboration et enrichissement » exigée par la loi écarterait tout contrôle fiscal automatique. Pourtant, avec l’utilisation d’algorithmes auto-apprenants dont le résultat ne peut être reproduit et expliqué, cette opération ne sera rien d’autre qu’un contrôle fiscal déguisé.

Flicage fiscal des réseaux sociaux : les parlementaires doivent saisir le Conseil constitutionnel

Mon, 23 Dec 2019 11:05:36 +0000 - (source)

Le projet de loi de finances pour 2020 a été adopté la semaine dernière en dernière lecture par l’Assemblée nationale. Il comporte toujours son article 57, désormais 154, qui prévoit une surveillance généralisée des réseaux sociaux afin de lutter contre certains délits fiscaux. Nous appelons aujourd’hui les parlementaires à saisir le Conseil constitutionnel afin de lui demander sa suppression.

Comme nous l’indiquions, le désormais article 154 de la loi de finances pour 2020 prévoit une collecte « de masse » (selon les propres mots du gouvernement) et une analyse des informations publiques des réseaux sociaux. L’objectif du gouvernement est d’autoriser Bercy et les douanes à procéder à de la surveillance algorithmique pour détecter quelques fraudeur·euses. Maintenant que la loi a été adoptée, la prochaine étape se passe devant le Conseil constitutionnel qui se prononcera sur la conformité à la Constitution. Nous avons déposé aujourd’hui au greffe du Conseil constitutionnel une contribution extérieure dans laquelle nous développons nos arguments relatifs à l’atteinte au droit à la vie privée et au droit à la liberté d’expression pour en conclure que cet article doit être supprimé.

Nous y avons souligné que cet article 154 est une atteinte disproportionnée au droit à la vie privée et au droit à la liberté d’expression. Il amplifie la surveillance généralisée sur Internet en permettant à l’administration de traiter des informations qu’elle ne devrait pas connaître : les opinions politiques, religieuses, philosophiques, les appartenances syndicales, les orientations sexuelles, etc., seront analysées. Pire ! L’Assemblée a rétabli une conservation de ces données sensibles inutiles alors que la version du Sénat, à défaut de s’opposer à la collecte, prévoyait une suppression immédiate de ces données.

Également, nous expliquons dans notre contribution extérieure que la surveillance algorithmique que veut le gouvernement conduira in fine à faire confiance aveuglément aux algorithmes. Le Conseil constitutionnel avait déjà indiqué en 2018 que l’administration ne peut prendre de décision individuelle fondée exclusivement sur un algorithme dont elle ne peut expliquer le fonctionnement : cela interdit l’usage d’algorithmes auto-apprenants. Pourtant, aujourd’hui, le fisc et les douanes veulent recourir à ce même type d’algorithme pour lever des alertes sur de potentielles fraudes fiscales. Ces algorithmes sont pudiquement appelés « aide à la prise de décision » alors qu’il ne fait pas de doute qu’ils restent l’élément clé conduisant à une décision de contrôle fiscal : face à un algorithme auto-apprenant dont la nature même est de ne pas pouvoir expliquer ses résultats, que pourront faire les agents du fisc à part déclencher un contrôle en cas de résultat positif ? Nous invitons le Conseil constitutionnel à faire preuve de pragmatisme et à interdire les algorithmes d’aide à la prise de décision auto-apprenants.

Alors que certains groupes parlementaires s’étaient opposés à cet article, nous attendons désormais des actes. Nous regrettons déjà l’hypocrisie du groupe LR de l’Assemblée nationale qui, après avoir déposé plusieurs amendements de suppression dont on savait qu’ils ne seraient pas votés en raison du blocage de la majorité présidentielle, « oublie » d’inclure dans sa saisine du Conseil constitutionnel les éléments de fond justifiant que le Conseil censure cet article.

Nous invitons les élu·es de l’Assemblée nationale et du Sénat à saisir le Conseil constitutionnel sur le fond de cet article et à s’inspirer de nos arguments disponibles dans notre contribution extérieure. Il n’est pas suffisant de s’opposer en hémicycle : aujourd’hui, la balle est dans le camp des oppositions parlementaires.


Lettre commune de 80 organisations : Interdisez la reconnaissance faciale sécuritaire

Thu, 19 Dec 2019 09:56:29 +0000 - (source)

L’Observatoire des Libertés Numériques1Organisations membres de l’OLN signataire de cette lettre ouverte : Le CECIL, Creis-Terminal, Globenet, La Ligue des Droits de l’Homme (LDH), La Quadrature du Net (LQDN), Le Syndicat des Avocats de France (SAF), Le Syndicat de la Magistrature (SM)., dont fait partie La Quadrature du Net, et 80 organisations signent une lettre commune appelant le gouvernement et le Parlement à interdire toutes les pratiques de reconnaissance faciale sécuritaire présentes et à venir. La liste des signataires relève d’une vraie diversité de type d’organisations et d’engagements qui témoignent du profond rejet de la population envers ces dispositifs et ces volontés politiques liberticides.

Notre lettre commune (aussi en PDF) reste ouverte à signature par des organisations (les individus sont vivement encouragés à se l’approprier et à la diffuser autour d’eux). Pour signer, écrivez-nous à contact@laquadrature.net avec « Signature lettre contre la reconnaissance faciale sécuritaire » en objet, puis en précisant le nom de votre organisation dans le mail. Merci !

Lettre commune : Interdisez la reconnaissance faciale sécuritaire

Nous, organisations, collectifs, entreprises, associations et syndicats, demandons au Parlement et au gouvernement français d’interdire tout usage sécuritaire de dispositifs de reconnaissance faciale actuels ou futurs.

Nous constatons que de telles technologies sont aujourd’hui déjà largement déployées en France. Outre les portiques « Parafe » présents dans plusieurs aéroports et gares, le fichier de traitement des antécédents judiciaires permet depuis 2012 à la police et à la gendarmerie de recourir à la reconnaissance faciale à partir d’images prises dans la rue par des caméras, ou encore obtenues sur les médias sociaux. D’autres expérimentations ont déjà été menées ou sont programmées.

La multiplicité des dispositifs déjà existants, installés sans aucun véritable encadrement juridique, transparence ou réel débat public, ne satisfait pourtant pas nombre d’acteurs publics et industriels. En se fondant sur le fantasme d’un développement inéluctable de la technologie et sur des arguments purement sécuritaires et économiques, ils souhaitent accélérer et faciliter le déploiement de ces dispositifs, au détriment des conséquences pour nos libertés et notre modèle de société.

La reconnaissance faciale est une technique exceptionnellement invasive et déshumanisante qui permet, à plus ou moins court terme, la surveillance permanente de l’espace public. Elle fait de nous une société de suspect·es. Elle attribue au visage non plus une valeur de personnalité mais une fonction de traceur constant, le réduisant à un objet technique. Elle permet un contrôle invisible. Elle impose une identification permanente et généralisée. Elle abolit l’anonymat.

Aucun argument ne peut justifier le déploiement d’une telle technologie : au-delà de quelques agréments anecdotiques (utiliser son visage plutôt que des mots de passe pour s’authentifier en ligne ou activer son téléphone…), ses seules promesses effectives sont de conférer à l’État un pouvoir de contrôle total sur la population, dont il ne pourra qu’être tenté d’abuser contre ses opposant·es politiques et certaines populations. Puisque l’utilisation de la reconnaissance faciale à des fins sécuritaires est par essence disproportionnée, il est vain d’en confier l’évaluation au cas par cas à une autorité de contrôle qui échouerait en pratique à suivre chacune de ses nombreuses nouvelles applications.

C’est pourquoi nous vous demandons d’interdire tout usage sécuritaire qui pourrait en être fait. De telles interdictions ont déjà été décidées dans plusieurs villes des États-Unis. La France et l’Union européenne doivent aller encore plus loin et, dans la lignée du règlement général sur la protection des données personnelles (RGPD), construire un modèle européen respectueux des libertés.

Il conviendra par ailleurs de renforcer les exigences de protection des données à caractère personnel et de limiter les autres usages de la reconnaissance faciale : qu’il s’agisse d’authentification ou d’identification privée, l’ensemble de ces dispositifs ne sont pas assez protecteurs des atteintes à la vie privée ; ils préparent, et banalisent une société de surveillance de masse.

Nous appelons à l’interdiction de tout usage sécuritaire de la reconnaissance faciale.

Liste des premiers signataires :

References   [ + ]

1. Organisations membres de l’OLN signataire de cette lettre ouverte : Le CECIL, Creis-Terminal, Globenet, La Ligue des Droits de l’Homme (LDH), La Quadrature du Net (LQDN), Le Syndicat des Avocats de France (SAF), Le Syndicat de la Magistrature (SM).

Loi « haine » : la trahison du Sénat

Wed, 18 Dec 2019 13:16:10 +0000 - (source)

Le Sénat vient d’adopter la loi « contre les contenus haineux sur internet ». Après ce qui semblait être une première victoire la semaine dernière en commission des lois, le Sénat a finalement renoncé à lutter contre les risques de censure abusive de cette proposition de loi. Sur plusieurs points cruciaux, le texte qu’il a adopté est pire que celui initialement proposé par Mme Avia.

Retour de la censure en 24 heures, étendue à d’autres acteurs

En apparence, la victoire de la semaine dernière est maintenue : la principale mesure de la loi, c’est-à-dire l’obligation pour les plateformes de retrait en 24 heures des contenus « haineux » qui leur sont notifiés, a disparu de l’article 1er du texte. Mais il s’agit d’une apparence bien trompeuse.

Hier, cette obligation a refait son apparition sous une autre forme à l’article 2 : le défaut de retrait en 24 heures n’est plus une infraction pénale sanctionnée au cas par cas, mais les plateformes doivent déployer « les diligences proportionnées et nécessaires » pour y parvenir1Cette obligation de moyens, qui consiste à veiller au retrait en 24 heures des contenus illicites, était déjà présente dans le texte adopté par l’Assemblée nationale, qui y ajoutait une obligation de résultat sanctionnée pénalement. La semaine dernière, la commission des lois du Sénat avait supprimé ces deux obligations. Hier, l’obligation de moyens a été réintroduite sous une nouvelle formulation., sans quoi elles s’exposent à une amende administrative du CSA pouvant aller jusqu’à 4% de leur chiffre d’affaire.2L’amende peut désormais aussi aller jusqu’à 20 millions d’euros si ce montant est plus élevé que les 4% du chiffre d’affaire, ce qui est notamment le cas pour les associations qui n’ont pas de chiffre d’affaire.

Contrairement au texte initial, l’obligation de retrait en 24 heures ne vise plus uniquement les grandes plateformes (qui ont plus de 5 millions d’utilisateurs par mois), mais n’importe quel hébergeur que le CSA considérera comme ayant « en France un rôle significatif […] en raison de l’importance de son activité et de la nature technique du service proposé ». Ainsi, le CSA pourra arbitrairement décider quels nouveaux acteurs devront respecter les nouvelles obligations pour lutter contre les contenus illicites. Et certaines de ces obligations seront directement définies par le CSA lui-même, sans débat démocratique.

Les hébergeurs du Web décentralisé et non commercial, qui se trouveraient soumis au CSA en raison de leur succès, ne pourraient certainement pas tenir ces obligations, n’ayant pas les moyens des plateformes géantes. Ce nouveau texte est un signal sans nuance au Web libre et décentralisé : « cessez tous vos efforts, renoncez à votre cause et laissez régner les géants ! ». Ces mêmes géants dont le modèle économique aggrave la haine sur Internet et que le Sénat vient de renforcer — à se demander quel est le véritable objectif de ce texte.

Nous avions déjà souligné les risques de faire du CSA un acteur central de l’Internet : centralisation, éloignement du juge, confusion aberrante entre télévision et Internet… Au lieu d’arranger le texte, le Sénat n’a fait que l’empirer.

Une trahison en cache d’autres

Une autre obligation adoptée hier va dans le même sens : celle de conserver les « contenus illicites retirés ou rendus inaccessibles à la suite d’une notification […] pour les besoins de la recherche, de la constatation et de la poursuite des infractions pénales », pour une durée à fixer par décret. Ici, tous les hébergeurs sont concernés, et plus seulement ceux désignés par le CSA. Une autre lourde contrainte technique qui freinera encore le développement d’alternatives aux GAFAM.

Enfin, et toujours s’agissant des obligations qu’appliquera le CSA, les plateformes qu’il régule seront désormais contraintes de veiller à la « suppression des comptes de leurs utilisateurs ayant fait l’objet d’un nombre de notifications par plusieurs personnes faisant apparaître, au vu de ce faisceau d’indices, une contravention sérieuse aux infractions » visées par la lutte contre la haine. Cette modification donne encore et toujours plus de pouvoirs aux plateformes, en leur demandant d’agir comme seules juges dans la détermination de ce qu’est ou non ce « faisceau d’indices » indiquant une « contravention sérieuse aux infractions » visées. Au-delà des dangers considérables que ce changement ajoute à cette proposition de loi, on soulignera qu’il révèle toute l’ignorance du Sénat en matière de Web, qui semble ne connaître que Facebook et Twitter sans savoir que l’on peut s’exprimer sur de nombreuses plateformes sans y avoir de compte.

L’économie de l’attention et l’interopérabilité pourtant au cœur des débats

Cette trahison est d’autant plus frustrante que plusieurs sénatrices et sénateurs ont, dès le début des débats en séance publique, essayé de souligner ce qui devrait être au cœur des discussions : l’économie de l’attention qui fonde le modèle économique des grandes plateformes. Comme nous l’avions auparavant souligné, ce modèle accélère la diffusion des contenus qui nous font rester le plus longtemps et interagir le plus, quitte à favoriser les invectives, conflits et caricatures et à « censurer par enterrement » les propos plus subtils d’écoute et d’entraide.

C’est pour lutter contre ce modèle économique que nous demandons, notamment par des actions contentieuses, l’application du RGPD, qui pourrait remettre fortement en cause ce modèle. C’est également pour cela que nous portons une proposition positive demandant à ce que la loi force les géants du numérique à devenir interopérables : pour nous permettre de les quitter et rejoindre des alternatives moins toxiques et à taille humaine, tout en pouvant continuer à communiquer avec les personnes restées chez les géants, cassant ainsi leur monopole sur les communautés créées dans ces systèmes privateurs.

Néanmoins, ces discussions en séance n’ont pas eu de réels effets. Des amendements sur le sujet de l’interopérabilité avaient déjà été discutés, sans succès, à l’Assemblée nationale. La commission des lois en a adopté une version très légère au moment de son rapport (en prévoyant que le CSA puisse « encourager » l’interopérabilité). Et c’est cette version qui a été adoptée hier. Elle ne suffit évidemment pas à rattraper le reste du texte. Une telle interopérabilité doit être imposée, et non proposée, et ce n’est sûrement pas au CSA qu’il revient de s’en occuper.

Prochaine étape : la commission mixte-paritaire

Maintenant que le texte a été adopté au Sénat, il doit passer en commission mixte-paritaire le 8 janvier, pendant laquelle l’Assemblée nationale et le Sénat essayeront de se mettre d’accord sur une version commune du texte. Il semble improbable que le résultat soit en faveur de nos libertés. Pour cela, il faudrait que chaque chambre renonce à ses pires propositions. Nous redoutons le contraire : que l’Assemblée nationale rétablisse ses ambitions de censure automatisée et que le Sénat conserve l’extension potentielle du texte à l’ensemble du Web sous les pleins pouvoirs du CSA. Le résultat serait bien plus grave que la proposition de loi initiale alors même que la Commission européenne alertait déjà sur l’incompatibilité de la version de l’Assemblée avec le droit de l’Union européenne.

Et si la situation n’était pas déjà assez terrible, le gouvernement en profite pour aller encore plus loin. Dans cette proposition de loi « contre la haine », il a essayé d’intégrer en avance les dispositions un autre texte contre lequel nous luttons, au niveau européen cette fois-ci : le règlement sur les contenus terroristes, qui veut forcer l’ensemble des acteurs de l’Internet à censurer en 1 heure tout contenu considéré comme terroriste par les autorités. L’amendement du gouvernement a pour cette fois été rejeté.

La lutte contre cette proposition de loi sera ardue. Nous la reprendrons vivement avec vous dès le début de l’année prochaine.

References   [ + ]

1. Cette obligation de moyens, qui consiste à veiller au retrait en 24 heures des contenus illicites, était déjà présente dans le texte adopté par l’Assemblée nationale, qui y ajoutait une obligation de résultat sanctionnée pénalement. La semaine dernière, la commission des lois du Sénat avait supprimé ces deux obligations. Hier, l’obligation de moyens a été réintroduite sous une nouvelle formulation.
2. L’amende peut désormais aussi aller jusqu’à 20 millions d’euros si ce montant est plus élevé que les 4% du chiffre d’affaire, ce qui est notamment le cas pour les associations qui n’ont pas de chiffre d’affaire

Le Sénat doit rejeter la loi « contre la haine »

Mon, 16 Dec 2019 16:19:56 +0000 - (source)

Après une victoire en demi-teinte la semaine dernière en commission des lois, l’ensemble du Sénat examinera demain la proposition de loi « contre la haine ». Nous venons d’envoyer le message ci-dessous à l’ensemble des sénateurs pour leur demander de rejeter le texte.

Madame la sénatrice, Monsieur le sénateur,

Demain 17 décembre, vous examinerez la proposition de loi visant à lutter contre les contenus haineux sur internet.
Nous vous appelons à la rejeter dans son ensemble.

Le 13 décembre, la commission des lois du Sénat a corrigé ce texte de façon substantielle :
– suppression à l’article 1er du délai de 24 heures pour censurer les contenus signalés ;
– suppression à l’article 2, alinéa 11, de l’obligation d’empêcher la réapparition de contenus déjà censurés.

Ainsi modifié, le texte n’a presque plus de substance, de sorte qu’il devient inutile de l’adopter. Ses nombreux opposants, dont la Commission européenne, ont déjà invité le législateur français à retirer entièrement cette proposition de loi dont l’approche est erronée depuis le début. L’objectif de lutter contre la haine en ligne devra être poursuivi par d’autres textes législatifs, suivant des approches différentes.

Une interopérabilité insuffisante

Parmi ces autres approches souhaitables, nous nous réjouissons que la commission des lois ait introduit à l’article 4, alinéa 15, de mesures encourageant l’interopérabilité des grandes plateformes Toutefois, de simples « encouragements » ne sauraient suffire pour répondre aux enjeux en cause. L’interopérabilité doit être imposée en tant qu’obligation, et cela plutôt par l’ARCEP que par le CSA. Ainsi, ces « encouragements » sont trop faibles pour justifier à eux-seuls l’adoption de cette proposition de loi, dont les problèmes sont par ailleurs trop nombreux.

Un texte aggravé

Tout en la corrigeant sur certains points, la commission des lois du Sénat a aggravé d’autres aspect de la proposition de loi. Alors que la version initiale du texte ne concernait que les plateformes dont le nombre d’utilisateurs dépasse les 5 millions par mois, la version adoptée en commission des lois étend de façon indéfinie le champ des plateformes concernées. Désormais, la loi s’imposera aussi à n’importe quelle plateforme choisie par le CSA selon des critères si vagues qu’il risque de pouvoir les désigner arbitrairement. Il suffira que le CSA considère qu’une plateforme ait « en France un rôle significatif […] en raison de l’importance de son activité et de la nature technique du service proposé » pour la soumettre à son pouvoir.

La proposition de loi conférait déjà des pouvoirs démesurés au CSA : il choisira seul et sans débat démocratique les règles imposées aux plateformes pour lutter contre les infractions en ligne, sanctionnées jusqu’à 4% de leur chiffre d’affaire. La nouveauté introduite en commission des lois est que, en plus de décider des règles qu’il imposera, le CSA décidera aussi des plateformes auxquelles les imposer. Les risques d’abus, notamment contre les plateformes libres et décentralisées, sont immenses et justifient à eux-seuls de rejeter cette proposition de loi.

Les risques pour les plateformes libres et décentralisées sont au centre de nos inquiétudes. En effet, celles-ci permettent d’échapper aux plateformes gênantes et à leur « culture du buzz » qui favorise tant les conflits en ligne. Lutter contre la haine exige ainsi de favoriser le développement des ces plateformes décentralisées, notamment en s’abstenant d’introduire de nouvelles obligations qui les freineraient, telle que la conservation des contenus supprimés (trop lourd techniquement) ou la soumission à un CSA tout puissant et imprévisible.

Cordialement,

La Quadrature du Net


Première victoire contre la loi « haine »

Wed, 11 Dec 2019 11:38:36 +0000 - (source)

La commission des lois du Sénat vient de rejeter le délai de 24h que Mme Avia souhaitait imposer aux grandes plateformes pour censurer les contenus illicites sur Internet. Cette première victoire pourrait entraîner l’effondrement d’un texte qui fait l’unanimité contre lui.

La commission des lois a vidé de sa substance l’article 1er de la proposition de loi. Cet article imposait aux grandes plateformes de censurer en 24 heures les contenus signalés par leurs utilisateurs ou la police et correspondant à une longue liste d’infractions (relire notre résumé de cette obligation).

Par ailleurs, la commission des lois a aussi supprimé une obligation parfaitement absurde, ajoutée à la dernière minute cet été à l’Assemblée nationale par le groupe LREM, imposant aux plateformes de censurer toute réapparition d’un contenu déjà censuré. Cela aurait impliqué une surveillance constante de l’ensemble des messages qu’elles diffusent, en violation frontale du droit européen.

Autre point positif : comme cela avait déjà été le cas à l’Assemblée nationale en séance plénière, le rapporteur s’est inspiré de nos propositions sur l’interopérabilité en proposant que le CSA puisse « encourager » la mise en œuvre de standards techniques d’interopérabilité pour permettre aux victimes de « se réfugier sur d’autres plateformes avec des politiques de modération différentes, tout en pouvant continuer à échanger avec les contacts qu’elles avaient noués jusqu’ici ». Cela reste une version très allégée de notre proposition, qui ne suffit pas à sauver le reste du texte.

Enfin, évidemment, les amendements farfelus du sénateur Grand, proposant de sanctionner lourdement la captation et la diffusion d’images de policiers (ici et ), ont été déclarés irrecevables.

Une victoire à confirmer

Les victoires d’aujourd’hui restent à confirmer par l’ensemble du Sénat lors d’un vote en séance plénière prévu pour le 17 décembre. Mais il faut que le Sénat aille encore plus loin qu’aujourd’hui en rejetant le texte dans son ensemble.

En effet, après le vote du 17, la proposition de loi ira en commission mixte paritaire, où l’Assemblée nationale et le Sénat tenteront de trouver un accord sur le texte en partant de leur version respective.

Un tel accord est ici peu probable vu les différences entre les textes adoptés par chacune des chambres. La loi reviendra donc manifestement à l’Assemblée nationale, avec le risque sérieux qu’elle renverse entièrement la victoire d’aujourd’hui.

Le Sénat doit marquer le plus fortement possible son opposition à la proposition de Mme Avia, en la rejetant purement et simplement.

Ce rejet est d’autant plus indispensable que, tout en améliorant le texte, la commission des lois du Sénat y a ajouté de nouveaux risques majeurs. Si les dangers initiaux de la loi revenaient après la commission mixte paritaire, s’y ajouteraient ces nouveaux risques-ci et la situation serait encore plus désastreuse qu’au départ.

Les tous pouvoirs du CSA

Les nouveaux dangers que le Sénat vient d’introduire concernent le champ des plateformes auxquelles la loi s’appliquera (voir l’amendement).

Initialement, la loi ne concernait que les plateformes dont le nombre d’utilisateurs dépassait un seuil fixé par décret, qu’on nous annonçait à 2 millions. Désormais, la loi s’imposera aussi à n’importe quelle plateforme choisie par le CSA selon des critères si vagues qu’il risque de pouvoir les désigner arbitrairement. Il suffira que le CSA considère qu’une plateforme ait « en France un rôle significatif […] en raison de l’importance de son activité et de la nature technique du service proposé ».

Toutes ces plateformes devront respecter les « règles » que le CSA définira pour lutter contre les infractions en ligne. Le CSA pourra sanctionner la violation de ses propres règles par une amende pouvant aller jusqu’à 4% du chiffre d’affaire des plateformes.

Le contenu de ces futures « règles » est encore inconnu, mais il faut redouter que le CSA songe à y inclure des techniques de censure automatisée ou de restriction de l’anonymat. C’est du moins la direction générale vers laquelle pousse le gouvernement, que ce soit au prétexte de la lutte contre le terrorisme (pour justifier l’automatisation de la censure) ou de la protection des enfants (pour commencer à s’attaquer à l’anonymat en ligne). Ces nouvelles « règles » seraient actées sans aucun débat démocratique, le CSA étant ici le seul à décider.

Ce pouvoir démesuré n’est pas nouveau dans cette proposition de loi. Nous le dénonçons depuis l’été dernier. La nouveauté du jour est que, en plus de décider des règles qu’il imposera, le CSA décidera aussi des plateformes auxquelles les imposer. Les risques d’abus, notamment contre les plateformes indépendantes et contre le Web libre et décentralisé, sont décuplés.

À ces risques, il faut ajouter celui évoqué plus tôt : si, après la commission mixte paritaire, l’Assemblée nationale parvenait à réintroduire l’obligation de censure en 24h, cette obligation pourrait aussi s’imposer à n’importe quelle plateforme désignée par le CSA, et non plus aux seuls « géants » initialement visés. De quoi détruire n’importe quelle plateforme indépendante d’un battement de cil du CSA.

Toutes ces raisons exigent que le Sénat rejette l’ensemble de cette proposition de loi. Comme nous l’avons déjà dit aux côtés de nombreuses institutions et associations, si la lutte contre la haine est un enjeu majeur, il devra être traité dans un autre texte, par une approche radicalement différente de celle proposée par Mme Avia.


Powered by VroumVroumBlog 0.1.31 - RSS Feed
Download config articles