PROJET AUTOBLOG


La Quadrature du Net

source: La Quadrature du Net

⇐ retour index

Mise à jour

Mise à jour de la base de données, veuillez patienter...

Contrôles discriminatoires : « Nous demandons le démantèlement des pratiques illégales des CAF »

mercredi 6 avril 2022 à 14:27

Nous republions ici une tribune initiée par le collectif Changer de Cap et que nous avons signée. Elle est parue le 5 avril dans Basta!. Nous appelons à signer et faire circuler l’appel correspondant.

Contrôles abusifs des allocataires, suspension des versements, harcèlement des plus précaires… La CAF oublie ses missions initiales de protection et de soutien pour devenir un outil de police numérique. Une tribune du collectif « Changer de cap ».

La numérisation à marche forcée des services publics contribue à faire des Caisses d’allocations familiales (CAF) un instrument de la mise en place d’une société de surveillance et de pénalisation des plus pauvres. Alors que la protection sociale est un droit universel depuis le Conseil national de la Résistance, les CAF développent une politique de plus en plus dure de contrôle des personnes en situation de précarité.

Tous fichés…

Plus de 1 000 données par personne sont collectées pour 13 millions de foyers1Vincent Dubois, Contrôler les assistés, Raisons d’agir, 2020, p. 257.<script type="text/javascript"> jQuery('#footnote_plugin_tooltip_18549_2_1').tooltip({ tip: '#footnote_plugin_tooltip_text_18549_2_1', tipClass: 'footnote_tooltip', effect: 'fade', predelay: 0, fadeInSpeed: 200, delay: 400, fadeOutSpeed: 200, position: 'top right', relative: true, offset: [10, 10], });, grâce à l’interconnexion de dizaines de fichiers administratifs (impôts, éducation, police, justice…) Les contrôleurs ont en outre le pouvoir de consulter nos comptes bancaires, nos factures de téléphone et d’énergie… Toutes ces données sont traitées à notre insu.

Chaque allocataire fait l’objet d’un profilage établi par un logiciel, mais selon des variables définies par des décisions humaines. Des algorithmes déterminent des « scores de risque » de fraude, qui débouchent sur un véritable harcèlement des personnes en difficulté. Sont qualifiés de « risque » les variations de revenus, les situations familiales atypiques, la naissance hors de France… Il en résulte un ciblage des contrôles sur les personnes précaires, handicapées ou vulnérables.
Plus de 32 millions de contrôles automatisés ont été réalisés par les CAF en 2020. Les témoignages collectés confirment la concentration de ces contrôles sur les femmes seules avec enfants, les chômeurs, des personnes handicapées, d’origine étrangère…

Des contrôles indignes et illégaux

Les méthodes de contrôle sont tout aussi inacceptables. La plupart de ces contrôles sont déclenchés automatiquement, sans en informer les allocataires et parfois sans notification, ce qui est contraire à la loi. Juridiquement la fraude doit être intentionnelle, mais ici les incompréhensions, les difficultés face au numérique, les erreurs, y compris celles des CAF, sont assimilées à de la fraude2Comme le soulignait le Défenseur des Droits dès 2017 : lutte contre la fraude aux prestations sociales : à quel prix pour les usagers ? Voir ici.<script type="text/javascript"> jQuery('#footnote_plugin_tooltip_18549_2_2').tooltip({ tip: '#footnote_plugin_tooltip_text_18549_2_2', tipClass: 'footnote_tooltip', effect: 'fade', predelay: 0, fadeInSpeed: 200, delay: 400, fadeOutSpeed: 200, position: 'top right', relative: true, offset: [10, 10], });.
Les procès-verbaux sont remplacés au mieux par des notifications sommaires, qui ne précisent ni les modalités de calcul de l’indu, ni les délais de réponse, ni les voies de recours. Dans de nombreux cas, les allocations sont suspendues pendant toute la durée du contrôle, sans respect du reste à vivre légalement imposé à tous les créanciers. Les contrôleurs sont pourtant dotés de larges pouvoirs juridiques et d’investigation, mais le calcul de leur prime d’intéressement dépend du montant des indus frauduleux détectés.
Ces dérives sont amplifiées par la désorganisation des CAF, suite à la numérisation et aux réductions d’effectifs. Les allocataires connaissent de nombreux retards, des erreurs, des versements à tort, des absences de réponses, l’impossibilité de trouver un interlocuteur. On imagine le mal-être et la dégradation des conditions de travail des agents soucieux de défendre un service public humain.
Les conséquences de telles orientations sont dévastatrices sur le plan social. La Fondation Abbé Pierre montre comment des familles ont été expulsées suite à des recouvrements qui ne tenaient pas compte du reste à vivre3Fondation Abbé Pierre, 2020, Prestations sociales de la CAF et logement. Enquête sur les freins rencontrés 2020. Voir ici.<script type="text/javascript"> jQuery('#footnote_plugin_tooltip_18549_2_3').tooltip({ tip: '#footnote_plugin_tooltip_text_18549_2_3', tipClass: 'footnote_tooltip', effect: 'fade', predelay: 0, fadeInSpeed: 200, delay: 400, fadeOutSpeed: 200, position: 'top right', relative: true, offset: [10, 10], });. Rappelons que 10 millions de personnes vivent sous le seuil de pauvreté, que 12 % des Français souffrent de difficultés psychiques. L’action présente de la CAF y contribue, comme le montrent les témoignages recueillis.

Une police et une justice parallèles

Ainsi, à la faveur de la numérisation, une police et une justice numérique parallèles se mettent en place, insensibles à des situations humaines parfois dramatiques. Ces pratiques ne respectent pas les principes fondamentaux du droit, et sont entachées d’illégalité4Cabinet DBKM. Incompatibilité des mesures nationales de lutte contre la fraude aux prestations sociales avec le Pacte des droits civils et politiques. Rapport au comité des droits de l’homme des Nations unies. Voir ici.<script type="text/javascript"> jQuery('#footnote_plugin_tooltip_18549_2_4').tooltip({ tip: '#footnote_plugin_tooltip_text_18549_2_4', tipClass: 'footnote_tooltip', effect: 'fade', predelay: 0, fadeInSpeed: 200, delay: 400, fadeOutSpeed: 200, position: 'top right', relative: true, offset: [10, 10], });. Elles découlent de la convention d’objectifs et de gestion 2018-2022 de la CNAF qui assimile les CAF à des entreprises et considère les prestations sociales comme des coûts à réduire. Tout en pratiquant en permanence le double langage, le pouvoir politique considère toujours « qu’on met un pognon de dingue dans des minima sociaux »5Emmanuel Macron, 12 juin 2018 : « La politique sociale, regardez : on met un pognon de dingue dans des minima sociaux, les gens ils sont quand même pauvres. On n’en sort pas. Les gens qui naissent pauvres, ils restent pauvres. Ceux qui tombent pauvres, ils restent pauvres. On doit avoir un truc qui permette aux gens de s’en sortir ». Source.<script type="text/javascript"> jQuery('#footnote_plugin_tooltip_18549_2_5').tooltip({ tip: '#footnote_plugin_tooltip_text_18549_2_5', tipClass: 'footnote_tooltip', effect: 'fade', predelay: 0, fadeInSpeed: 200, delay: 400, fadeOutSpeed: 200, position: 'top right', relative: true, offset: [10, 10], });.

Transparence, légalité, solidarité

On ne peut que s’inquiéter de l’intention de l’actuel président, s’il est réélu, de généraliser le versement automatique des aides sociales. S’il s’agit d’étendre ce type de pratiques, ce projet de maltraitance institutionnelle est inacceptable et monstrueux.
C’est pourquoi nous demandons le démantèlement des pratiques illégales qui se sont développées, l’instauration de sanctions contre ceux qui les ordonnent délibérément et un retour aux missions fondatrices de la Sécurité sociale et des services publics, dans une logique de confiance et de solidarité.
Toute la transparence doit être faite sur la récolte et le traitement des données personnelles des allocataires par la CAF, ainsi que sur le rôle des logiciels et des algorithmes dans la prise de décision.
Il est indispensable de remettre les humains au cœur du service public, tout particulièrement dans les CAF, et de faire du numérique un outil pour rendre effectif l’accès de chacun à ses droits sociaux, tout en respectant son intimité.

Vous pouvez vous joindre à cet appel. Voici le lien pour le signer.

Voir les témoignages et le dossier complet en cliquant ici.

Premiers signataires
Isabelle Maurer, Archipel des sans voix, allocataire multi-controlée
Farida Amrani, syndicaliste CGT
Hichem Atkouche, SUD Commerces et Services Ile de France
Geneviève Azam, économiste, essayiste
Miguel Benasayag, philosophe, collectif Malgré tout
La Quadrature du Net
Fathi Bouaroua, AprèsM, ex directeur régional de la fondation Abbé Pierre en PACA
Alima Boumediene-Thiéry, avocate porte parole de Femmes plurielles
Henri Braun, avocat au Barreau de Paris
Dominique Cabrera, réalisatrice
Alexis Corbière, député
Jean-Michel Delarbre, comité national LDH, co-fondateur RESF
Lætitia Dosch, comédienne
José Espinosa, gilet jaune
Txetx Etcheverry, mouvement Alda de défense des habitants des milieux et quartiers populaires au Pays basque
Jacques Gaillot, évêque de Partenia
Marie-Aleth Grard, présidente d’ATD Quart Monde France
Laurent Klajnbaum, vice-président de Changer de cap
François Koltès, auteur
Michèle Leflon, présidente de la Coordination Nationale des Comités de défense des hôpitaux et maternités de proximité
Pierre-Edouard Magnan, délégué Général Mouvement national Chômeurs et précaires (MNCP)
Boris Mellows, SUD Culture Solidaires
Didier Minot, président du Collectif Changer de cap
Francis Peduzzi, directeur de la scène nationale de Calais
Evelyne Perrin, Stop précarité, économiste
Alice Picard, porte parole d’Attac
Nicole Picquart, présidente du Comité national de liaison des régies de quartier
Serge Quadruppani, auteur, traducteur
René Seibel, responsable national AC !
Clément Terrasson, avocat
Roger Winterhalter, Maison de la citoyenneté mondiale
Voir la liste complète.

References

References
1 Vincent Dubois, Contrôler les assistés, Raisons d’agir, 2020, p. 257.
2 Comme le soulignait le Défenseur des Droits dès 2017 : lutte contre la fraude aux prestations sociales : à quel prix pour les usagers ? Voir ici.
3 Fondation Abbé Pierre, 2020, Prestations sociales de la CAF et logement. Enquête sur les freins rencontrés 2020. Voir ici.
4 Cabinet DBKM. Incompatibilité des mesures nationales de lutte contre la fraude aux prestations sociales avec le Pacte des droits civils et politiques. Rapport au comité des droits de l’homme des Nations unies. Voir ici.
5 Emmanuel Macron, 12 juin 2018 : « La politique sociale, regardez : on met un pognon de dingue dans des minima sociaux, les gens ils sont quand même pauvres. On n’en sort pas. Les gens qui naissent pauvres, ils restent pauvres. Ceux qui tombent pauvres, ils restent pauvres. On doit avoir un truc qui permette aux gens de s’en sortir ». Source.
<script type="text/javascript"> function footnote_expand_reference_container_18549_2() { jQuery('#footnote_references_container_18549_2').show(); jQuery('#footnote_reference_container_collapse_button_18549_2').text('−'); } function footnote_collapse_reference_container_18549_2() { jQuery('#footnote_references_container_18549_2').hide(); jQuery('#footnote_reference_container_collapse_button_18549_2').text('+'); } function footnote_expand_collapse_reference_container_18549_2() { if (jQuery('#footnote_references_container_18549_2').is(':hidden')) { footnote_expand_reference_container_18549_2(); } else { footnote_collapse_reference_container_18549_2(); } } function footnote_moveToReference_18549_2(p_str_TargetID) { footnote_expand_reference_container_18549_2(); var l_obj_Target = jQuery('#' + p_str_TargetID); if (l_obj_Target.length) { jQuery( 'html, body' ).delay( 0 ); jQuery('html, body').animate({ scrollTop: l_obj_Target.offset().top - window.innerHeight * 0.2 }, 380); } } function footnote_moveToAnchor_18549_2(p_str_TargetID) { footnote_expand_reference_container_18549_2(); var l_obj_Target = jQuery('#' + p_str_TargetID); if (l_obj_Target.length) { jQuery( 'html, body' ).delay( 0 ); jQuery('html, body').animate({ scrollTop: l_obj_Target.offset().top - window.innerHeight * 0.2 }, 380); } }

Pourquoi s’opposer à la vidéosurveillance algorithmique ?

vendredi 1 avril 2022 à 14:38

La vidéosurveillance algorithmique (VSA) s’installe en France avec l’aide de l’État, des collectivités territoriales et de la CNIL (relire notre article « Qu’est-ce-que la VSA ? »). L’opposition s’organise, que ce soit au niveau local autour de la campagne Technopolice ou par notre réponse à la consultation récemment organisée par la CNIL à ce sujet. Les raisons de rejeter la VSA sont variées (nous avons d’ailleurs recueilli vos motivations personnelles et avons transmis à la CNIL 175 de vos contributions). Pour l’heure, voici l’état actuel de nos motivations politiques contre la VSA.

Comme fil rouge à notre raisonnement, confrontons le discours de nos adversaires qui prétendent chercher le juste équilibre entre la « sécurité » que produirait la VSA et la mesure de « liberté » qu’il faudrait lui sacrifier. En notre sens, il s’agit d’un faux dilemme : la VSA va réduire à la fois nos libertés et notre sécurité. Elle réduira la sécurité d’une large partie de la population tout en échouant à repousser les dangers qu’elle prétend combattre.

Effets négatifs sur la sécurité

La VSA pose trois menaces pour la sécurité de la population : elle met en danger les populations qui sont déjà les plus vulnérables, elle favorise structurellement les comportements violents de la police contre la population, elle offre au pouvoir exécutif une puissance telle qu’aucun contre-pouvoir ne pourra en empêcher les abus.

Mise en danger des populations les plus vulnérables

Comme tout système de surveillance de l’espace public, la VSA surveillera en priorité les personnes qui passent le plus de temps en extérieur – les personnes qui, par manque de ressources, n’ont pas ou peu accès à des lieux privés pour sociabiliser ou pour vivre. De plus, la VSA détecte des comportements d’autant plus efficacement qu’elle a pu s’entraîner à partir d’une grande quantité de séquences d’images représentant une même action. Ainsi, les comportements les plus efficacement détectés seront ceux que l’on rencontre le plus souvent dans la rue et les transports – les comportements typiques des populations qui y passent le plus de temps, peu importe que ces activités soient licites ou illicites.

Ce sont précisément ces comportements que les fournisseurs de VSA mettent en avant1Par exemple, la RATP a récemment expérimenté dans la salle d’échange du RER des Halles un système pour repérer les personnes statiques pendant plus de 300 secondes.<script type="text/javascript"> jQuery('#footnote_plugin_tooltip_18542_2_1').tooltip({ tip: '#footnote_plugin_tooltip_text_18542_2_1', tipClass: 'footnote_tooltip', effect: 'fade', predelay: 0, fadeInSpeed: 200, delay: 400, fadeOutSpeed: 200, position: 'top right', relative: true, offset: [10, 10], }); : maraudage, mendicité, réunions statiques. C’est le mode de vie des populations précaires ou populaires qui sera visé en priorité, alors qu’il ne constitue quasiment jamais un délit ou un crime. La VSA jouera le rôle de contrôle au faciès automatisé basé sur des critères sociaux, permettant de multiplier les alarmes sonores ou les contrôles humains et d’exclure une partie de la population de l’espace public, détériorant encore davantage leur sécurité – qu’il s’agisse de dégrader2L’exclusion par la surveillance s’ajoute aux politiques d’urbanisme et d’aménagement urbain déjà déployées contre les populations précaires et populaires.<script type="text/javascript"> jQuery('#footnote_plugin_tooltip_18542_2_2').tooltip({ tip: '#footnote_plugin_tooltip_text_18542_2_2', tipClass: 'footnote_tooltip', effect: 'fade', predelay: 0, fadeInSpeed: 200, delay: 400, fadeOutSpeed: 200, position: 'top right', relative: true, offset: [10, 10], }); leur cadre de vie ou de les éloigner de l’accès aux soins et aux autres services publics.

La focalisation de la VSA sur les populations les plus pauvres n’est pas le simple « effet de bord » d’une technologie immature qui aurait encore quelques « biais ». Au contraire, la VSA est précisément vendue comme permettant de lutter contre des comportements définis comme « anormaux » qui, bien qu’étant parfaitement communs et « normaux » pour une large partie de la population, permettent de dénigrer les populations qui adoptent ces comportements. Ainsi, la VSA est autant un outil d’exclusion sociale qu’un outil de propagande politique, dont l’effet sera d’installer le sentiment que certaines populations (choisies arbitrairement par les fournisseurs de VSA et leurs clients) ne sont pas « normales » et doivent être exclues de l’espace public.

Déshumanisation de la population

La VSA renforce la distance qui sépare la police de la population. Cette distance est d’abord physique : l’interaction passe par des écrans et ne se réalise que dans une seule direction. La distance est aussi intellectuelle : les agents n’ont plus à comprendre, à évaluer ou à anticiper l’action des autres humains quand une machine le fait à leur place3Gregoire Chamayou. « Théorie du drone », 2013. L’auteur revient notamment sur la perte d’empathie entraînée par la distance entre le pilote de drone et ses cibles.<script type="text/javascript"> jQuery('#footnote_plugin_tooltip_18542_2_3').tooltip({ tip: '#footnote_plugin_tooltip_text_18542_2_3', tipClass: 'footnote_tooltip', effect: 'fade', predelay: 0, fadeInSpeed: 200, delay: 400, fadeOutSpeed: 200, position: 'top right', relative: true, offset: [10, 10], });. Déresponsabilisée, déshumanisée, la police est réduite à un outil d’action mécanique sur les corps, détachée de l’empathie et de la considération sans lesquelles les violences policières ne peuvent qu’exploser. Cette même empathie sans laquelle encore davantage de personnes auraient perdu la vie face aux pires crimes commis par la police (tel que notamment documenté4En plus des divers initiatives individuelles de policiers pendant l’occupation, le cas de la rafle manquée de Nancy illustre comment l’empathie d’un groupe de policiers a sauvé des centaines de personnes.<script type="text/javascript"> jQuery('#footnote_plugin_tooltip_18542_2_4').tooltip({ tip: '#footnote_plugin_tooltip_text_18542_2_4', tipClass: 'footnote_tooltip', effect: 'fade', predelay: 0, fadeInSpeed: 200, delay: 400, fadeOutSpeed: 200, position: 'top right', relative: true, offset: [10, 10], }); pour la période de collaboration nazie).

De façon plus diffuse, cette mise à distance technologique accompagne une politique générale d’austérité. La collectivité assèche ses dépenses d’accompagnement et d’aide aux individus pour ne plus financer que leur gestion disciplinaire. Dans un courrier à la CNIL, la région PACA défendait l’expérimentation de la reconnaissance faciale aux abords de deux lycées en affirmant que ce projet constituait « une réponse au différentiel croissant constaté entre les exigences de sécurisation des entrées dans les établissements et les moyens humains disponibles dans les lycées, dans le cadre des plans successifs de réduction des effectifs dans la fonction publique ». Le personnel encadrant, soucieux et à l’écoute, est remplacé par des machines dont le seul rôle est d’ouvrir et de fermer des accès. Ou encore à Nîmes, où la métropole a ponctionné presque 10 millions d’euros sur le budget d’investissement « eau » pour les dépenser à la place dans l’achat d’un logiciel de Détection Automatique d’Anomalie en temps réel.

La vidéosurveillance algorithmique accentue la déshumanisation du contrôle social qui était déjà une critique faite à la vidéosurveillance dite classique. Cette course sans fin s’inscrit dans la fuite en avant technologique générale qui anime à la fois l’effondrement des services publics et le désastre écologique en cours.

C’est aussi la population qui est déshumanisée : elle est utilisée comme cobaye pour entraîner les algorithmes. Non content de voir les habitants des villes comme une masse de données à rentabiliser pour le compte d’entreprises de mort, les populations permettent malgré elles de rendre le logiciel plus performant et donc de l’exporter sur le marché international de la surveillance. Par exemple, la multinationale Idémia, affine ses dispositifs de reconnaissance faciale aux aéroports français avec les dispositifs PARAFE ou MONA pour ensuite vendre des équipements de reconnaissance faciale à la Chine et participer à la surveillance de masse et le génocide Ouïghour.

Effacement des limites contre les abus de la police

Aujourd’hui, le nombre limité d’agents de police contraint celle-ci à concentrer une large part de ses ressources sur ses missions les plus importantes et les plus légitimes (crimes, violences aux personnes). Elle ne dispose ainsi que d’un temps et de ressources limitées pour poursuivre des activités peu légitimes (contre les populations vulnérables, contre les manifestants) ou qui constituent des abus de son pouvoir (répression d’opposants politiques, persécution de minorités).

Demain, la VSA promet d’effacer cette limite matérielle en décuplant les capacités opérationnelles de la police pour poursuivre les missions de son choix, que ces missions soient peu légitimes ou qu’elles constituent des abus. Par exemple, s’il est aujourd’hui extrêmement coûteux de détecter en manifestation l’ensemble des pancartes critiquant le gouvernement, la VSA promet à terme de rendre la chose triviale (facilitant les interpellations sur place ou, couplée à la reconnaissance faciale, permettant de poursuivre en masse les opposants trop expressifs). De même, si le suivi visuel d’opposants politiques implique aujourd’hui des moyens humains si importants que ces opérations ne peuvent rester qu’exceptionnelles, la VSA rend la chose triviale en permettant de suivre, à coût quasi-nul, une personne sur l’ensemble des caméras d’une ou plusieurs villes.

Ce changement d’échelle transforme considérablement la manière dont les pouvoirs de police sont exercés. D’une action précise répondant à des « besoins » pouvant être débattus démocratiquement, nous assistons à l’apparition d’une police omnisciente disposant de la capacité de surveiller et d’agir sur l’ensemble de la population. Avec la VSA, les 250 000 policiers et gendarmes actuels verraient leur autorité atteindre celle qu’auraient eu des millions d’agents non-équipés de telles technologies. De quoi atteindre le ratio police/population typique des États policiers.

Cette multiplication considérable des capacités de la police ne sera nullement compensée par une multiplication équivalente des capacités de contrôle de ses contre-pouvoirs. Dès aujourd’hui, l’installation des équipements de VSA se fait à un rythme bien trop important pour que la CNIL ou que des associations comme la nôtre puissent en prendre connaissance à temps et avec suffisamment de détails. Demain, la situation sera encore plus dramatique concernant l’utilisation quotidienne de ces systèmes : aucune autorité, aucun juge, aucun parlement ne pourra vérifier que chacune des innombrables détections réalisées chaque jour ne contribue pas à un abus de pouvoir. Personne ne pourra vérifier que la VSA ne permet pas à la police de réduire illégalement les conditions de sécurité de larges parties de la population.

En plus des risques d’abus policiers, ce changement d’échelle dans la surveillance de l’espace public contribue à criminaliser un nombre croissant de comportements. Ainsi, par exemple, la plupart des logiciels de VSA cherchent à détecter des dépôts d’ordure sauvage, le non-port du masque, des personnes qui sont statiques dans l’espace public, sans que ces évolutions aient été actées démocratiquement, résultant principalement d’initiatives d’entreprises privées.

Absence d’effet positif sur la sécurité

Les dégradations dramatiques engendrées par la VSA ne sont compensées par aucun avantage en terme de sécurité. Il s’agit d’un outil inadapté pour lutter contre les violences sur les personnes, que ce soit de par son objet, l’espace public, ou de par son fonctionnement, l’automatisation.

Cette double inadaptation repose sur une vision faussée du concept de « sécurité » qui, dans le discours des promoteurs de la VSA, se limite à un pur argument marketing déconnecté de la façon dont la population pourrait concrètement protéger sa santé physique et mentale, ses conditions de vie, son logement et ses capacités d’épanouissement.

Inadéquation de l’objet surveillé

L’objet de la VSA est l’espace public. Pourtant, pour l’essentiel, ce n’est pas dans l’espace public que se réalisent les violences sur les personnes. Tandis que les agressions sexuelles se déroulent presque toujours dans un contexte privé (91% sont perpétrées par une personne connue de la victime), la grande majorité des homicides, en excluant les conflits entre criminels, interviennent eux aussi en dehors de la voie publique5Voir statistiques pour la région parisienne entre 2007 et 2013, graphique 25.<script type="text/javascript"> jQuery('#footnote_plugin_tooltip_18542_2_5').tooltip({ tip: '#footnote_plugin_tooltip_text_18542_2_5', tipClass: 'footnote_tooltip', effect: 'fade', predelay: 0, fadeInSpeed: 200, delay: 400, fadeOutSpeed: 200, position: 'top right', relative: true, offset: [10, 10], });.

Cette inadéquation entre l’objet surveillé et la finalité poursuivie est au cœur des nombreuses évaluations qui, depuis une décennie, concluent unanimement à l’inefficacité de la vidéosurveillance classique (voir notamment le rapport de la Cour des compte, du LINC et d’autres chercheurs).

Ce décalage est accentué en matière de VSA qui, pour fonctionner, doit s’entraîner sur un grand nombre de séquences vidéos représentant les comportements à détecter. Or, les violences sur les personnes sont beaucoup moins nombreuses dans l’espace public que de simples actes de dégradations, de maraudage ou de mendicité. Dès lors, l’algorithme aura beaucoup moins d’occasions de s’entraîner à détecter des actes de violences sur les personnes et les détectera beaucoup moins efficacement que d’autres actes plus anecdotiques (dont la surveillance, comme vu précédemment, dégradera les conditions de sécurité des populations les plus vulnérables).

Inadéquation de la méthode

La prévention des violences sur les personnes repose sur un travail humain et social : accompagnements personnalisés, soins, enquêtes de terrain, analyses sociologiques, réduction des inégalités ou même simplement présence sur le terrain. Ce travail humain a un coût nécessairement conséquent et déjà largement sous-investi, particulièrement dans les zones du territoire ou la précarité est la plus élevée.

À l’inverse, la VSA, probablement moins chère à court terme, n’est capable que de détecter certaines infractions (et parmi les moins graves), sans être capable d’en traiter les causes plus profondes en amont. Une façon de donner l’illusion de traiter les symptômes, sans rien changer sur le long terme.

C’est sans doute là que se trouve l’un des rares avantages de la VSA : offrir aux élus en manque de projet politique enthousiasmant un discours qui fera illusion à court terme. Ce discours est d’autant plus séduisant pour les élus que l’industrie de la VSA a préparé depuis plusieurs années les bons éléments de langage et l’imaginaire suffisamment confus pour espérer tromper le public. Sont décrits comme « anormaux » des comportements parfaitement banals mais typiques des populations les moins riches. Est présenté comme « sécurité » un objectif qui a bien plus à voir avec la « propreté » de la ville et la « sécurité » des biens qu’avec celle des personnes. Est dite « augmentée » ou « intelligente » une surveillance policière qui, au contraire, sera « réduite » à de pures tâches mécaniques et défaite de toute l’empathie et de toute la considération qui font l’intelligence humaine.

En conclusion, à l’exact opposé de ce que prétendent ses détracteurs, la VSA est une grave menace pour notre sécurité. Elle nuira aux conditions de vie d’une large partie de la population, ouvrira des risques politiques sans précédent, et cela sans même réussir à nous protéger par ailleurs. En plus d’être une grave menace pour notre sécurité, la VSA balaiera du même geste notre liberté d’aller et de venir, de nous rassembler, d’exprimer nos opinions politiques ou d’avoir la vie privée de notre choix. Nous reviendrons en détails sur les atteintes aux libertés causées par la VSA dans un futur article juridique reprenant l’analyse développée dans notre réponse à la consultation de la CNIL.

References

References
1 Par exemple, la RATP a récemment expérimenté dans la salle d’échange du RER des Halles un système pour repérer les personnes statiques pendant plus de 300 secondes.
2 L’exclusion par la surveillance s’ajoute aux politiques d’urbanisme et d’aménagement urbain déjà déployées contre les populations précaires et populaires.
3 Gregoire Chamayou. « Théorie du drone », 2013. L’auteur revient notamment sur la perte d’empathie entraînée par la distance entre le pilote de drone et ses cibles.
4 En plus des divers initiatives individuelles de policiers pendant l’occupation, le cas de la rafle manquée de Nancy illustre comment l’empathie d’un groupe de policiers a sauvé des centaines de personnes.
5 Voir statistiques pour la région parisienne entre 2007 et 2013, graphique 25.
<script type="text/javascript"> function footnote_expand_reference_container_18542_2() { jQuery('#footnote_references_container_18542_2').show(); jQuery('#footnote_reference_container_collapse_button_18542_2').text('−'); } function footnote_collapse_reference_container_18542_2() { jQuery('#footnote_references_container_18542_2').hide(); jQuery('#footnote_reference_container_collapse_button_18542_2').text('+'); } function footnote_expand_collapse_reference_container_18542_2() { if (jQuery('#footnote_references_container_18542_2').is(':hidden')) { footnote_expand_reference_container_18542_2(); } else { footnote_collapse_reference_container_18542_2(); } } function footnote_moveToReference_18542_2(p_str_TargetID) { footnote_expand_reference_container_18542_2(); var l_obj_Target = jQuery('#' + p_str_TargetID); if (l_obj_Target.length) { jQuery( 'html, body' ).delay( 0 ); jQuery('html, body').animate({ scrollTop: l_obj_Target.offset().top - window.innerHeight * 0.2 }, 380); } } function footnote_moveToAnchor_18542_2(p_str_TargetID) { footnote_expand_reference_container_18542_2(); var l_obj_Target = jQuery('#' + p_str_TargetID); if (l_obj_Target.length) { jQuery( 'html, body' ).delay( 0 ); jQuery('html, body').animate({ scrollTop: l_obj_Target.offset().top - window.innerHeight * 0.2 }, 380); } }

Pourquoi s’opposer à la création de Mon Espace Santé ?

vendredi 25 mars 2022 à 15:59

Expérimenté depuis le mois d’août 2021 dans trois départements de Métropole, le service Mon Espace Santé (qui prend la suite du Dossier Médical Partagé) a été généralisé à l’ensemble de la population depuis février 2022. Plusieurs associations (comme XY media, Acceptess-T ou le collectif POS) ont très tôt alerté sur les dangers liés à ce nouvel outil. Nous avons passé en revue les fonctionnalités de Mon Espace Santé et force est de constater qu’elles présentent des insuffisances alarmantes en matière de respect du consentement et de gestion des données de santé. De par l’audience large à laquelle il s’adresse et de part la sensibilité des données qu’il manipule, un tel outil du service public se devrait pourtant d’être irréprochable en la matière. À défaut, nous ne pouvons que vous rediriger vers des guides vous permettant de vous opposer à ces traitements de données.

Que contient Mon Espace Santé ?

Pour commencer, faisons un petit tour plutôt descriptif de ce qui est annoncé en terme de fonctionnalités. Mon Espace Santé (aussi appelé Espace numérique de santé dans la loi et le décret qui le créent) se compose principalement de quatre éléments :

* Un Dossier Médical Partagé (DMP), ou espace de stockage et de partage d’informations médicales : il contient les traitements, les résultats d’examens, les antécédents médicaux, les compte-rendus d’hospitalisation, qui peuvent être partagés avec les professionnel·les de santé. Cet espace de stockage permet également de conserver des documents tels que la synthèse médicale produite par le ou la médecin généraliste, le carnet de vaccination ou l’historique des remboursements alimentés automatiquement par l’Assurance maladie (sources). Le Dossier Médical Partagé existait déjà depuis 2011 (sous le nom de Dossier Médical Personnel jusqu’en 2015) mais n’était ouvert que sur demande ; aujourd’hui, il est ouvert par défaut, en même temps que Mon Espace Santé, pour l’ensemble de la population.

Dans l’absolu, cet espace de partage des informations pourrait être une solution pour faciliter le droit d’accès à son dossier médical. Mais ceci impliquerait une mise en œuvre solide et de confiance qui n’est, à notre avis, pas atteinte avec Mon Espace Santé (voir plus bas la suite de notre analyse).

* Une messagerie sécurisée pour échanger avec des professionnel·les de santé. À la création de Mon Espace Santé, une adresse de messagerie MSSanté (Messagerie Sécurisée de Santé) est automatiquement attribuée à la personne usagère et rattachée à Mon Espace Santé. Cette adresse est constituée à partir du matricule INS de l’usagère et du nom de domaine de l’Opérateur de Mon Espace Santé (selon le Référentiel Socle MSSanté). Les messages échangés sont stockés pendant une durée de dix ans, sauf lorsqu’ils sont supprimés directement par l’utilisateur·ice. Ces adresses existaient déjà pour les professionnel·les de santé.

* Un agenda pour suivre ses rendez-vous médicaux et recevoir des rappels.

* Un catalogue de services numériques de santé : concrètement, la personne usagère pourra autoriser des applications tierces à accéder à son espace santé. Ces applications seront validées et autorisées par le Ministère de la santé. Développées par des acteurs publics et privés de la santé, elles incluront des éditeurs de logiciels et d’applications mobiles, des plateformes de télémédecine, des plateformes de prise de rendez-vous en ligne (qui s’intégreront probablement à l’agenda santé), des portails patients des établissements de santé (ETS) et portails de pré-admission, et même des fabricants d’objets connectés. Cette fonctionnalité nous inquiète particulièrement sur le plan de l’accès aux données personnelles, comme nous l’expliquons plus bas.

Enfin, pour accéder à ces différents services, outre un site web, une application mobile sera également disponible. Le développement technique est réalisé par les entreprises privées Atos, Octo, Accenture et Maincare. La société Worldline traite les données du Dossier Médical Partagé au travers de sa filiale Santeos. Les autres données (messagerie, agenda…) sont traitées par la société Atos.

Un recueil accessoire du consentement des personnes

À la création du compte

Pour chaque personne, la création de Mon Espace Santé se fait automatiquement selon un calendrier régionalisé prévu par l’État. Chaque personne est notifiée par courrier postal ou par courriel de la création prochaine de son espace. Elle dispose alors d’un délai de six semaines pour empêcher la création de l’espace en se connectant sur le site. L’espace est donc créé sans le recueil du consentement préalable et explicite de la personne usagère. L’opposition, elle, doit être explicite.

Dans les premières annonces d’ évaluation de la phase pilote, qui a eu lieu à partir d’octobre 2021 dans trois départements, la Sécurité sociale annonçait que « moins de 0.7% des usagers se sont opposés à [la] création [de leur espace santé]. » Mais plus loin on apprenait que seuls 4.8% des personnes ayant un espace santé l’avaient utilisé. Comment savoir donc si les presque 90% restants ont réellement souhaité en avoir un, ou même s’ils ont reçu le courrier ou mail prévenant de sa création (et des possibilités de s’y opposer) ?

Avant même de se poser la question de l’utilité ou non de Mon Espace Santé, on peut dire que les modalités de sa création sont loin d’être respectueuses des personnes auxquelles il est censé simplifier la vie. Passer outre le consentement des personnes au prétexte de « les aider » est la définition du paternalisme et, selon nous, s’oppose aux véritables pratiques de soin fondées sur l’écoute et la considération.

Certes, il est toujours possible de supprimer son compte. Mais, là encore, la personne usagère devra être attentive et suffisamment informée si elle souhaite demander la fermeture de son compte en cochant la bonne case (ses données seront supprimées 3 mois plus tard, à moins d’être supprimées individuellement au sein du profil médical, des mesures santé ou de la messagerie, auquel cas elles seront effacées immédiatement). Nous avons trop souvent dénoncé ce tour de passe-passe lorsqu’il était réalisé par les GAFAM : la possibilité théorique d’effacement ultérieur ne produit aucun effet significatif concret qui pourrait justifier l’absence de consentement préalable. Ce qui est inadmissible pour les GAFAM l’est encore davantage pour un service public traitant des données extrêmement sensibles soi-disant « pour notre bien ».

Dans le partage des données avec les professionnel·les de santé

Une fois créé, l’espace santé a pour but de partager les informations avec le personnel de santé : la personne usagère devra donc autoriser les soignant·es à accéder à tout ou partie de ses informations. Mais, là encore, le recueil du consentement est problématique, pour ne pas dire quasiment factice : une simple case à cocher par le ou la soignante servira de « preuve » que l’on a donné son accord pour qu’il ou elle y accède. Au niveau du service informatique, il n’y a donc aucune procédure pour vérifier qu’il s’agit bien de la personne patiente qui donne son accord, à qui, et quand.
On peut ainsi imaginer qu’une personne mal-intentionnée ait accès au service en tant que personnel soignant et consulte le dossier de n’importe quelle personne dans la base de données. Il lui suffirait de cocher cette case de manière arbitraire et d’accéder à des informations privées. Ce cas est certes déjà possible actuellement sans Mon Espace Santé, à partir des divers bases de données médicales existantes, mais de manière bien plus cloisonnée. Avec un système aussi centralisé que Mon Espace Santé, la possibilité que ce type de scénarios se produise est accrue. On peut aussi aisément imaginer que nombre de personnes soignantes vont considérer que le fait d’avoir pris rendez-vous équivaut à consentir à ce qu’ils ou elles accèdent au dossier du ou de la patient·e : le respect du consentement est encore malheureusement une question épineuse dans le milieu médical où les maltraitances médicales peuvent être nombreuses.

Enfin, une fois l’espace créé, seuls des « motifs légitimes » peuvent être invoqués pour refuser qu’un·e professionnel·le verse des documents en ligne. C’est ce qu’indique en l’article R. 1111-47 du code de la santé publique et rappelé dans la politique de protection des données personnelles : « Une fois votre profil Mon Espace Santé créé, vous ne pourrez pas, sauf à invoquer un motif légitime, refuser qu’un professionnel autorisé ou que les personnes exerçant sous sa responsabilité déposent dans votre dossier médical partagé les informations qui sont utiles à la prévention, la continuité et la coordination de vos soins (article R. 1111-47 du code de la santé publique) ».

Illustration : la configuration par défaut du compte à sa création

Nous avons passé en revue la configuration des paramètres à la création du compte « Mon Espace Santé », et déjà, nous pouvons noter quelques actions effectuées sans l’accord explicite de la personne usagère :

L’attestation de vaccination Covid-19 est automatiquement versée dans le dossier par l’Assurance maladie. Le document est visible par défaut à l’ensemble des professionnel·les de santé. Il est possible de le masquer, mais pas de le supprimer car il a été ajouté par un·e professionnel·le de santé. Il n’est pas possible de s’opposer au versement de ce document, alors que l’Assurance maladie n’a pas été techniquement autorisée à déposer des documents sur ce compte.

En ce qui concerne la configuration des accès aux professionnel·les en cas d’urgence, l’option est activée par défaut à la création du compte. Pour s’en rendre compte, la personne usagère doit se rendre dans la section « Confidentialité » des paramètres de configuration, puis « Accès en cas d’urgence ». Le personnel du SAMU ainsi que « tout autre professionnel de santé » sont autorisés par défaut à accéder aux documents et aux rubriques « Vaccinations », « Historique de soins », « Entourage et volontés » du profil médical. Mais quels contrôles techniques permettent de définir ce qui est une situation d’urgence et débloque l’accès des documents aux professionnel·les ? Et s’agit-il des professionnel·les qui ont d’ordinaire déjà accès à notre espace ? Les informations que nous avons pu recueillir ne nous permettent pas de répondre actuellement à cette question.

Un cloisonnement des informations insuffisant vis-à-vis du personnel soignant

Le décret s’appliquant à Mon Espace Santé prévoit une matrice d’accès différencié aux informations de la personne usagère selon le type d’activité du ou de la soignante. En pratique, le partage par défaut est très large : votre dentiste aura accès à vos résultats de prélèvements sanguins, votre kiné à votre historique de vaccination, votre sage-femme aux données de remboursement, et ainsi de suite.

Le ou la médecine traitante a, quant à elle, accès à l’ensemble des informations contenues dans l’espace santé de ses patient·es.
S’il est possible de bloquer l’accès à un·e professionnel·le de santé depuis les paramètres de l’espace, que se passe-t-il dans le cas où l’on souhaite changer de médecin·e traitant·e ? Ou que l’on souhaite choisir quelles informations partager ? En effet, certains parcours de santé nécessitent la consultation de divers spécialistes aux opinions divergentes pour obtenir un diagnostic. L’accès à certaines informations sur des opérations ne faisant pas consensus parmi le corps médical peut également générer des biais négatifs chez les professionnel·les de santé (par exemple, le recours à une IVG). Enfin, l’accès est partagé pour le service d’un hôpital : impossible dans de ce cas de savoir qui y a vraiment accès (prêt de carte d’accès au système informatique par exemple).

Cependant, il est important de noter que la personne usagère ou qu’un·e professionnel·le peuvent choisir de masquer un document pour le rendre inaccessible aux autres professionnel·les de santé, à l’exception du ou de la médecine traitante, de la personne ayant mise en ligne le document et du personnel intervenant en cas d’urgence. Si ce n’est pour ces larges exceptions, ceci représente un bon moyen de protéger la confidentialité des données au cas par cas. En revanche, il n’est pas possible de supprimer un document déjà versé par un·e professionnel·le de santé.

Il est possible pour les personnes de vérifier qui a eu accès à leurs données : des journaux d’activité enregistrent qui accède à quel document à une date et une heure donnée. La personne usagère peut recevoir des notifications chaque fois qu’un nouvel accès est détecté. Ces journaux permettent donc de détecter un potentiel mésusage de l’accès aux données. Cependant, cette fonctionnalité ne peut aider à protéger les accès qu’après coup : si on se rend compte qu’une personne soignante a eu accès à un document et que cela ne nous convient pas, on ne pourra que limiter ses accès futurs.

Le système de droit d’accès de Mon Espace Santé n’a pas été pensé pour permettre aux utilisateur·ices de gérer simplement et de manière éclairée l’accès à leurs données. On pourrait par exemple imaginer un système où par défaut seule la personne usagère et la liste de soignant·es qu’elle a désignées auraient accès aux documents la concernant, l’usagère pouvant ensuite choisir de démasquer certains documents à d’autres professionnel·les de santé (en bénéficiant par exemple de conseils de la part des soignant·es pour faire ce choix de manière éclairée). Dans ce cas, c’est la personne usagère qui aurait véritablement la main sur ses données, et non pas les professionnel·les de santé comme c’est le cas avec la conception actuelle de Mon Espace Santé.

Une mise en danger du secret médical pour certains ouvrants droits ?

Dans le cas des enfants et des adolescent·es, les ouvrants droits (c’est-à-dire les assuré·e·s) auront accès aux espace de santé des personnes qui leur sont rattachées. C’est-à-dire que, concrètement, toutes les informations de santé de leurs enfants et adolescent·es, ainsi que les rendez-vous et les courriels passant par la messagerie sécurisée leur seront accessibles.

En théorie, certaines infos peuvent ne pas être versées dans le dossier. Par exemple, dans le cas d’une IVG, le ou la soignant·e est en charge d’expliquer et de proposer à la personne mineure de ne pas ajouter les infos de l’IVG dans le dossier. La personne peut répondre qu’elle ne veut pas que ce soit versé. Aucune donnée de remboursement relatif à cet acte ne sera remontée. Cet exemple fait partie des motifs légitimes que peut invoquer une usagère pour refuser qu’un·e professionel·le verse un document sur l’espace santé.

Ceci implique que les soignant·es pensent à demander, et respectent, le souhait des personnes. Or, avec Mon Espace Santé, la quantité des données versées est multipliée et surtout normalisée : par fatigue ou par oubli à force de répétition, il est probable que le consentement pour verser une information dans Mon Espace Santé ne soit pas récolté à chaque fois. De plus, comme le recueil du consentement est oral et informel (il ne laisse donc aucune trace), la décision pourra difficilement être contestée.

Cet outil multiplie donc malheureusement les chances de mettre en danger le secret médical de ces personnes, et potentiellement la sécurité des personnes au sein de leur foyer ou de leur famille : que se passe-t-il si une enfant/ado ne souhaite pas parler d’un sujet (contraception, dépistage de MSTs, grossesse, avortement, transition) avec la personne à laquelle son compte est rattaché (que cela soit par pudeur ou par crainte de violences en représailles) ?

Le dossier Informatique et Libertés fourni par la Délégation du numérique en santé précise par ailleurs que l’opposition à la création du compte Mon Espace Santé appartient aux représentants légaux. Une personne mineure ne peut donc supprimer ou s’opposer à la création de son espace santé.
En revanche, lorsque la personne devient ayant droit autonome, les accès des représentants légaux sont clôturés par le service. La personne peut gérer son compte, le fermer ou le créer s’il n’existait pas avant si elle le souhaite. Notons qu’une personne peut demander, à partir de 16 ans, de devenir ayant droit autonome auprès de la CPAM de son domicile. On peut imaginer que le scénario de clôture des accès des anciens représentants légaux s’applique également dans ce cas.

Par ailleurs, la notion d’ayant droit existe toujours dans certains régimes tels que la Mutualité sociale agricole (MSA) ou le régime local d’Alsace-Moselle (personnes mariées, pacsées, concubines et enfants jusqu’à 24 ans sans activités). La documentation à laquelle nous avons eu accès ne permet pas de dire si les ouvrants droits auront accès aux espaces santé des ayants-droits majeurs. Nous attirons l’attention sur le fait que si tel était le cas, cela représenterait un danger pour les personnes qui vivent des violences ou des conflits dans leur vie familiale (personnes en instance de divorce par exemple).

Enfin, au delà des soignant·es et des utilisateur·ices, des personnes tierces peuvent avoir accès aux données de santé pour des fonctions de support. Les niveaux 2 et 3 de ce support pourront avoir accès aux données de santé. Ceci implique notamment des agent·es de la CPAM et le personnel de prestataires (Atos/Wordline) et de l’hébergement. L’accès aux informations doit en théorie recueillir le consentement de la personne usagère dans le cadre du support, mais là encore impossible d’assurer que ce consentement sera bien demandé et non forcé techniquement. Concrètement, des personnes qui ne sont pas professionnelles de santé peuvent accéder aux informations médicales personnelles des usagères. Mais cela est-il vraiment nécessaire pour une fonction support ? Ceci pose la question également de savoir si les documents sont stockées de manière chiffrée et lisibles uniquement par les personnes habilitées, ou pas. Difficile de répondre à cette question en l’état de nos connaissances.

Un futur écosystème d’applications aux nombreuses inconnues

La description du catalogue de services numériques de santé à venir implique la possibilité d’ajouter des applications d’entreprises privées au sein de l’espace santé. Ceci pose un grand nombre de questions concernant le partage des données d’activités et des contenus stockés dans l’espace santé. Pour l’instant, nous n’avons pas les réponses à ces questions, et nous soulignons notre inquiétude sur ce sujet : comment l’usagère pourra-t-elle déterminer à quelles données l’application accède, et si cela est légitime ? Pourra-t-on limiter les données auxquelles chaque application a accès (comme sur un smartphone) ? Lors des mises à jour des applications, les changements de permissions ou de fonctionnement seront-ils notifiés et comment ? Et enfin, quels usages de nos données feront les « startups » d’objets connectés et autres grandes entreprises et plateformes de prise de rendez-vous (monétisation, profilage) ? Au-delà de ces problèmes d’implémentation, il faut dénoncer la direction générale animée par cette évolution : le remplacement du soin par la technique industrielle.

Un futur accès plus difficile au service public de santé ?

Mon Espace Santé s’inscrit dans une tradition de numérisation et de centralisation en ligne des données : ceci fait du service une cible idéale pour les piratages de données. Le stockage est géré par une entreprise privée. Le code du service n’est ni public ni accessible, ce qui pose la question de la transparence pour un outil du service public.

Nous nous interrogeons, aujourd’hui comme dans un futur plus ou moins proche, sur l’accès à la santé des personnes ne pouvant ou ne voulant pas utiliser ce service de santé. Et si d’aventure nous nous retrouvions dans une situation où il nous est impossible d’avoir rendez-vous sans passer par cet espace ? Ou que nos remboursements sont rendus difficiles sans l’utilisation de cet espace ?

La fiabilité et la sécurité informatique de ce service doivent aussi être considérées : si la plateforme se retrouve la cible d’un défaut de fonctionnement ou d’un piratage, que deviennent alors nos données ? Souvenons-nous du piratage des services de l’AP-HP en 2021 dans le contexte du Covid-19, suite auquel la réponse apportée par les autorités de santé a été insuffisante, voire nulle. Plus récemment encore, les données d’au moins 510 000 personnes ont été volées à l’Assurance maladie via Amelipro. À vouloir faciliter l’accès à la santé en imposant un outil numérique, n’y a-t-il pas erreur sur la façon de procéder ? Autant de questions auxquelles cet outil numérique ne répond pas tout en persistant dans la même direction.

Conclusion

Mon Espace Santé est un service manipulant des données sensibles qui est déployé à l’ensemble de la population française. Or, sa conception et son déploiement ne sont clairement pas au niveau des services les plus respectueux en matière de protection de la vie privée.

Selon le Ségur du numérique en santé, son ambition est de « généraliser le partage fluide et sécurisé de données de santé entre professionnels et usagers pour mieux soigner et accompagner. »

Mais pour cela, les besoins en terme de consentement et de gestion des données des usagères devraient être au cœur d’une expérience utilisatrice respectueuse, fiable et réaliste, ce qui à notre sens n’est pas le cas avec Mon Espace Santé. Sans oublier que ce service s’inscrit dans un processus de numérisation des services publics qui, trop souvent, ne tient pas compte des difficultés d’accès et d’utilisation d’Internet par de nombreuses personnes.

Pour ces raisons, nous ne pouvons que remercier les nombreuses associations qui ont déjà alerté sur ce sujet et, comme elles, vous proposer des guides pour demander la suppression de votre espace santé.

Qu’est-ce que la vidéosurveillance algorithmique ?

mercredi 23 mars 2022 à 14:01

La semaine dernière, La Quadrature du Net a transmis à la CNIL sa position relative à la vidéosurveillance dite « algorithmique », ainsi que plus de 170 contributions de personnes nous ayant mandatées dans le cadre d’une contre-consultation populaire. Nous allons revenir prochainement sur le détail des arguments qui conduisent, selon nous, à combattre toute légitimation de ces dispositifs. En attendant, il est essentiel de revenir sur ce que signifie ce terme et sur la nature exacte de ces technologies déployées depuis plusieurs années en France. Alors, de quoi parle t-on ?

Définitions

Selon la CNIL, la « vidéo augmentée désigne ici des dispositifs vidéo auxquels sont associés des traitements algorithmiques mis en œuvre par des logiciels, permettant une analyse automatique, en temps réel et en continu, des images captées par la caméra. »

Vidéosurveillance/Vidéoprotection « augmentée » ou « intelligente », comme l’écrivent les institutions et les industriels ou encore vidéosurveillance « algorithmique » ou « automatisée » (VSA) comme nous préférons la nommer. Tous ces termes recouvrent une même réalité aux contours plus ou moins flous et aux promesses plus ou moins concrétisées. Il s’agit de l’ajout d’une couche d’algorithme aux caméras de vidéosurveillance dites « classiques ». Et ce, dans le but de rendre automatique l’analyse des images captées par caméras, jusqu’à présent réalisée par des humains, les opérateurs vidéos aux sein des centres de supervision urbains (CSU). Alors pourquoi ces différences de langage ?

Parce que les mots ont un poids fort, nous préférons « automatisation » – ce terme déconstruit la notion d’intelligence qu’apporterait soit-disant la technologie. L’automatisation n’est pas un procédé neutre et en dehors du monde social mais qui transporte 1Florent Castagnino « Rendre « intelligentes » les caméras : déplacement du travail des opérateurs de vidéosurveillance et redéfinition du soupçon », Sciences Po, 2019<script type="text/javascript"> jQuery('#footnote_plugin_tooltip_18493_2_1').tooltip({ tip: '#footnote_plugin_tooltip_text_18493_2_1', tipClass: 'footnote_tooltip', effect: 'fade', predelay: 0, fadeInSpeed: 200, delay: 400, fadeOutSpeed: 200, position: 'top right', relative: true, offset: [10, 10], }); avec lui les représentations et normes de celui-ci. Et « algorithmique » pour rendre visible l’ajout de ces logiciels fabriqués par des start-up et multinationales dont on ne sait pas grand chose.

Cette surcouche algorithmique vise à faire de l’analyse vidéo, que ce soit en temps réel ou après coup, et à repérer… ce que la police a envie de repérer. Cela va de la « détection de comportement suspect », au « maraudage » (entendre être statique dans l’espace public), en passant par le « dépassement d’une ligne », le suivi de personne, la détection d’objet abandonné, d’une bagarre, d’un vol etc.

Le déploiement de la VSA dans les villes

Que ce soit à Toulouse en 2016 avec IBM (projet abandonné en 2019), à Nîmes depuis 2015 avec Briefcam, à Marseille dès 2018 avec la SNEF, à Paris avec la RATP qui autorise des entreprises à tester leur algos sur les utilisateur.ices des métros, ou encore avec la municipalité de Suresnes qui met à disposition sa population en tant que cobaye pour la start-up parisienne XXII, la vidéosurveillance algorithmique se déploie aux quatre coins de la France. S’il reste compliqué de quantifier le nombre de villes qui utilisent la VSA, dû au manque criant de transparence de ces dernières, il est possible d’en repérer au moins une cinquantaine, le vrai nombre devant malheureusement dépasser la centaine, rien qu’en France.

Depuis plusieurs années, nous suivons ce déploiement, souvent très opaque (toutes les municipalités ne sont pas aussi loquaces que celle d’Estrosi). Alors que la VSA faisait l’objet jusqu’il y a peu de très nombreuses expérimentations sauvages, la CNIL a explicitement demandé en janvier 2022 aux industriels du secteur de lui faire des retours sur l’usage de ces technologies « afin d’accompagner leur déploiement », prenant clairement un parti : celui des industriels de la sécurité. La VSA semble en passe d’inonder le marché de la sécurité urbaine numérique.

Et ce marché de la VSA prend forme : si des acteurs comme IBM à Toulouse n’ont pas réussi à rendre efficace leur produit et semblent s’être retirés, l’entreprise israélienne Briefcam (entité du groupe Canon) prétend dominer le marché en France tandis que des villes signent des partenariats avec des start-up ou firmes françaises, soutenues par les décideurs politiques, afin de rendre les industries françaises concurrentielles sur le marché international de la sécurité urbaine numérique.

Les exemples de Briefcam et Two-I

Briefcam est une entreprise qui produit des logiciels de vidéosurveillance algorithmique très bien implantée en France, aux États-Unis et dans une quarantaine de pays. En 2020, déjà plus de 35 villes françaises utilisaient son logiciel, dont voici une démonstration assez révélatrice.

Dans cette vidéo, l’entreprise affirme être capable de condenser des heures de vidéos en quelques minutes, de pouvoir faire du suivi de personnes en fonction d’attributs (femme, homme, sac, chapeaux, couleurs d’habits…). On sait aussi que le logiciel de Briefcam est doté d’une option de reconnaissance faciale, que les élus à la sécurité sont très impatients d’enclencher.

Two-I de son côté est une start-up française, basée du côté de Metz. Ayant d’abord tenté de se faire une place dans la détection d’émotions (notamment l’expérimentation avortée à Nice de détection d’émotions dans les tramways), elle s’est finalement lancée dans la vidéosurveillance algorithmique et la conception de ce que les industriels appellent une « plateforme d’hypervision ». Ces plateformes mettent en carte et traduisent les nombreuses données collectées par les caméras et les algorithmes, dans le but « d’optimiser la gestion de la ville ». En somme, ces plateformes permettent de rendre utilisable la vidéosurveillance algorithmique, via une mise en carte des données et alertes captées par les caméras et algorithmes.

Hyperviseur de Two-I, voir la vidéo de présentation <a href=

Hyperviseur de Two-I, voir la vidéo de présentation ici.

L’exemple des logiciels de Briefcam ou encore de Two-I (qui ne sont que deux exemples parmi une dizaine d’autres entreprises sécuritaires du même type) est révélateur de ce nouveau marché de la sécurité mais aussi d’un basculement dans le concept de sécurité. Dorénavant, ce sont des entreprises privées qui, concevant les algorithmes vendus aux collectivités territoriales, décident ce qu’il y a derrière une alerte pour « comportement anormal ou suspect ». À travers l’automatisation, les entreprises acquièrent un pouvoir de police et d’édiction de normes et comportements dans l’espace public, s’inscrivant parfaitement dans l’expansion des politiques sécuritaires.

Les effets de la vidéosurveillance algorithmique

L’ajout d’algorithme à la vidéosurveillance « classique » n’est pas anodin. Cela témoigne d’un changement d’échelle dans la surveillance par les caméras qui, jusqu’à présent, comme le décrit Tanguy Le Goff2Le Goff, Tanguy. « Dans les « coulisses » du métier d’opérateur de vidéosurveillance ». Criminologie, vol. 46, n o 2, 2013, p. 91-108.<script type="text/javascript"> jQuery('#footnote_plugin_tooltip_18493_2_2').tooltip({ tip: '#footnote_plugin_tooltip_text_18493_2_2', tipClass: 'footnote_tooltip', effect: 'fade', predelay: 0, fadeInSpeed: 200, delay: 400, fadeOutSpeed: 200, position: 'top right', relative: true, offset: [10, 10], });, était un « travail de surveillance […] jugé ennuyeux et monotone » au sein duquel les opérateurs vidéos mettaient en place des stratégie pour réaliser ce travail de manière partielle.

L’automatisation de cette surveillance est censée décupler les yeux derrière l’écran des caméras. Et cela se traduit notamment par la criminalisation de comportements jusqu’alors anodins ou presque comme le dépôt d’ordures sauvage, le non port du masque ou encore les déjections canines. L’automatisation permet à la police d’étendre sa capacité d’action à de nouveaux champs sur lesquels elle a maintenant un pouvoir de répression. La police peut décupler sa capacité à normaliser l’espace public : si le maraudage, c’est-à-dire le fait de rester statique plus de 300 secondes, alerte les forces de l’ordre, on peut craindre pour les personnes qui ne peuvent pas voir la rue comme un « simple endroit de passage », car ils y vivent ou en font un repère social nécessaire. Nous reviendrons dans un prochain article sur le fait que les algorithmes sur les caméras augmentent la répression policière sur les populations déjà particulièrement ciblée par les forces de l’ordre.

Un autre aspect de la VSA est la tendance croissante à être mis en données. Au-delà de la surveillance de l’espace public et de la normalisation des comportements qu’accentue la VSA, c’est tout un marché économique de la data qui se frotte les mains. Le prétendu « encadrement » des dispositifs promis par la CNIL permettrait aux entreprises de la Technopolice d’utiliser les espaces publics et les personnes qui les traversent ou y vivent comme des « données sur pattes ». Et aux industries de la sécurité de se faire de l’argent sur nous, d’améliorer leurs algorithmes de répression et ensuite de les vendre sur le marché international. C’est ce que fait la multinationale française Idémia, qui affine ses dispositifs de reconnaissance faciale aux aéroports français avec les dispositifs PARAFE ou MONA pour ensuite vendre des équipements de reconnaissance faciale à la Chine et ainsi participer à la surveillance de masse et au génocide Ouïghour, ou encore pour remporter les appels d’offres de l’Union Européenne en vue de réaliser de la biométrie aux frontières de l’UE.

De quoi la VSA est-elle le nom ?

Vidéosurveillance automatisée et Smart City nourrissent la même fiction : celle d’une ville dont les capteurs mettent en données, où les algorithmes trient et détectent et où une plateforme centrale permettrait à la police de gérer la ville à distance.

La vidéosurveillance algorithmique, c’est un marché de la sécurité qui tente de s’accroître en devenant « numérique » c’est-à-dire avec de l’IA et des algorithmes. Et comme le montre Myrtille Picaud 3 Myrtille Picaud. Peur sur la ville. La sécurité numérique pour l’espace urbain en France. [Rapport de recherche] 01/2021, Chaire ”Villes et numérique”, École urbaine de Sciences Po. 2021.<script type="text/javascript"> jQuery('#footnote_plugin_tooltip_18493_2_3').tooltip({ tip: '#footnote_plugin_tooltip_text_18493_2_3', tipClass: 'footnote_tooltip', effect: 'fade', predelay: 0, fadeInSpeed: 200, delay: 400, fadeOutSpeed: 200, position: 'top right', relative: true, offset: [10, 10], });, les industriels et décideurs politiques français font pression pour structurer une filière industrielle sécuritaire forte afin d’être concurrentielle sur le marché international, qui représente un marché économique énorme. Les grands événements sportifs comme les Jeux Olympiques de Paris en 2024 ou encore la coupe du monde de Rugby en 2023 représentent une aubaine pour accélérer le développement de technologies sécuritaires, offrir une vitrine aux industriels français et normaliser ces dispositifs.

Pour les industriels, la VSA représente la possibilité de justifier le déploiement de centaines de milliers de caméras en France. Déploiement largement décrié 4 Voir ces trois études : Celle de Guillaume Gormand commandée par le CREOGN https://www.aefinfo.fr/depeche/663759-pour-le-chercheur-guillaume-gormand-critiquer-la-videosurveillance-c-est-s-attaquer-a-une-religion, l’étude sur la vidéosurveillance dans les villages, novembre 2021 https://linc.cnil.fr/fr/comment-la-videosurveillance-se-developpe-t-elle-dans-les-villages et le rapport sur les polices municipales, octobre 2020 disponible sur https://www.ccomptes.fr/system/files/2020-11/20201020-rapport-polices-municipales_0.pdf<script type="text/javascript"> jQuery('#footnote_plugin_tooltip_18493_2_4').tooltip({ tip: '#footnote_plugin_tooltip_text_18493_2_4', tipClass: 'footnote_tooltip', effect: 'fade', predelay: 0, fadeInSpeed: 200, delay: 400, fadeOutSpeed: 200, position: 'top right', relative: true, offset: [10, 10], }); même par les institutions publiques, mais qui, par un tour de magie, prendrait tout son sens avec l’ajout d’algorithmes (argument absurde, nous y reviendrons dans un prochain article). La VSA permettrait d’utiliser les caméras à leur plein potentiel et même d’accélérer leur déploiement : il en faudra plus et il faudra aussi remplacer les anciennes qui ne seraient pas d’assez bonne qualité pour les algorithmes ; et surtout s’assurer de poursuivre l’installation démesurée de caméras qui continueront à rapporter beaucoup d’argent aux entreprises du secteur.

En plus de constituer une justification à la multiplication des caméras de vidéosurveillance, la VSA forme une ressource rentable 5Laurent Mucchielli Vous êtes filmés, Armand Colin, 2018, page 80<script type="text/javascript"> jQuery('#footnote_plugin_tooltip_18493_2_5').tooltip({ tip: '#footnote_plugin_tooltip_text_18493_2_5', tipClass: 'footnote_tooltip', effect: 'fade', predelay: 0, fadeInSpeed: 200, delay: 400, fadeOutSpeed: 200, position: 'top right', relative: true, offset: [10, 10], }); politiquement, expliquant l’engouement immodéré des élus locaux pour la vidéosurveillance. La VSA est une mesure de court terme que les élus locaux peuvent mobiliser pour montrer qu’ils agissent. La sécurité numérique constitue 6Guillaume Faburel Les métropoles barbares, Paris, Le passager clandestin, 2020 [2018], page 46<script type="text/javascript"> jQuery('#footnote_plugin_tooltip_18493_2_6').tooltip({ tip: '#footnote_plugin_tooltip_text_18493_2_6', tipClass: 'footnote_tooltip', effect: 'fade', predelay: 0, fadeInSpeed: 200, delay: 400, fadeOutSpeed: 200, position: 'top right', relative: true, offset: [10, 10], }); également une source d’attractivité et de distinction dans la concurrence territoriale, dans la recherche de capital symbolique pour attirer tourisme et classe créative.

La vidéosurveillance algorithmique, c’est un renouveau dans la croyance en la « prophétie technologique 7Ibid<script type="text/javascript"> jQuery('#footnote_plugin_tooltip_18493_2_7').tooltip({ tip: '#footnote_plugin_tooltip_text_18493_2_7', tipClass: 'footnote_tooltip', effect: 'fade', predelay: 0, fadeInSpeed: 200, delay: 400, fadeOutSpeed: 200, position: 'top right', relative: true, offset: [10, 10], }); » intégrée dans les Smart City. Cette croyance permet de continuer à déployer des caméras et, surtout, de trouver toujours plus de débouchés économiques.

Pour conclure :

En somme, la vidéosurveillance algorithmique est une technologie en passe d’être largement déployée en France et qui l’est peut être déjà beaucoup plus que ce que nous pouvons en douter, qui sert à justifier l’existence de l’immense parc de vidéosurveillance français, en tentant de les rendre plus performantes, via l’automatisation de la détection d’infractions. Cette technologie s’intègre dans la fiction plus large de la Smart City, qui base la gestion de la ville sur l’IA et représente un énorme marché économique. Ces technologies d’automatisation réduisent encore les espaces de libertés dans les rues et sur les places des villes, augmentant la répression sur les populations les plus visées déjà par la police. Nous reviendrons plus en détail sur ce pour quoi nous sommes contre cette technologie et comment il est possible de lutter contre son déploiement.

References

References
1 Florent Castagnino « Rendre « intelligentes » les caméras : déplacement du travail des opérateurs de vidéosurveillance et redéfinition du soupçon », Sciences Po, 2019
2 Le Goff, Tanguy. « Dans les « coulisses » du métier d’opérateur de vidéosurveillance ». Criminologie, vol. 46, n o 2, 2013, p. 91-108.
3 Myrtille Picaud. Peur sur la ville. La sécurité numérique pour l’espace urbain en France. [Rapport de recherche] 01/2021, Chaire ”Villes et numérique”, École urbaine de Sciences Po. 2021.
4 Voir ces trois études : Celle de Guillaume Gormand commandée par le CREOGN https://www.aefinfo.fr/depeche/663759-pour-le-chercheur-guillaume-gormand-critiquer-la-videosurveillance-c-est-s-attaquer-a-une-religion, l’étude sur la vidéosurveillance dans les villages, novembre 2021 https://linc.cnil.fr/fr/comment-la-videosurveillance-se-developpe-t-elle-dans-les-villages et le rapport sur les polices municipales, octobre 2020 disponible sur https://www.ccomptes.fr/system/files/2020-11/20201020-rapport-polices-municipales_0.pdf
5 Laurent Mucchielli Vous êtes filmés, Armand Colin, 2018, page 80
6 Guillaume Faburel Les métropoles barbares, Paris, Le passager clandestin, 2020 [2018], page 46
7 Ibid
<script type="text/javascript"> function footnote_expand_reference_container_18493_2() { jQuery('#footnote_references_container_18493_2').show(); jQuery('#footnote_reference_container_collapse_button_18493_2').text('−'); } function footnote_collapse_reference_container_18493_2() { jQuery('#footnote_references_container_18493_2').hide(); jQuery('#footnote_reference_container_collapse_button_18493_2').text('+'); } function footnote_expand_collapse_reference_container_18493_2() { if (jQuery('#footnote_references_container_18493_2').is(':hidden')) { footnote_expand_reference_container_18493_2(); } else { footnote_collapse_reference_container_18493_2(); } } function footnote_moveToReference_18493_2(p_str_TargetID) { footnote_expand_reference_container_18493_2(); var l_obj_Target = jQuery('#' + p_str_TargetID); if (l_obj_Target.length) { jQuery( 'html, body' ).delay( 0 ); jQuery('html, body').animate({ scrollTop: l_obj_Target.offset().top - window.innerHeight * 0.2 }, 380); } } function footnote_moveToAnchor_18493_2(p_str_TargetID) { footnote_expand_reference_container_18493_2(); var l_obj_Target = jQuery('#' + p_str_TargetID); if (l_obj_Target.length) { jQuery( 'html, body' ).delay( 0 ); jQuery('html, body').animate({ scrollTop: l_obj_Target.offset().top - window.innerHeight * 0.2 }, 380); } }

Données de connexion : une victoire en retard

vendredi 25 février 2022 à 17:06

Dans sa décision de ce matin, le Conseil constitutionnel vient de censurer, comme Franciliens.net et La Quadrature le lui demandaient, une partie de l’obligation de conservation généralisée et indifférenciée des données de connexion, c’est-à-dire la surveillance de masse des télécommunications. Cette censure est une bonne nouvelle, mais ne va pas, en pratique, mettre tout de suite fin à cette surveillance illégale.

Depuis sept ans, La Quadrature du Net et d’autres associations se battent contre cette surveillance des réseaux de télécommunications. Celle-ci permet aux services de police, de renseignement et à la Hadopi/Arcom d’accéder, pendant une année, à toutes les traces numériques que nous laissons en utilisant un téléphone ou un ordinateur. Pourtant, l’obligation imposée aux opérateurs et hébergeurs de conserver toutes ces données pour les besoins de la police était jugée illégale et disproportionnée depuis 2014 par la Cour de justice de l’Union européenne.

En sept ans de procédure, nous avons essuyé mépris et échec devant les juridictions françaises. Mépris de l’État de droit, d’abord, mis à mal par le gouvernement. Celui-ci ne veut pas respecter cette jurisprudence européenne confirmée par la victoire obtenue difficilement par La Quadrature, FDN, FFDN et igwan.net devant la Cour de Justice de l’Union européenne en 2020. En invoquant des inepties juridiques, la France demandait au Conseil d’État de ne pas appliquer une décision de justice qui, pourtant, s’impose sans discussion à elle.

Échec, ensuite, parce qu’en 2021, prétextant un état d’urgence permanent qui justifierait les pires mesures de surveillance, le Conseil d’État préféra finalement donner raison aux velléités sécuritaires du gouvernement.

Aujourd’hui, le Conseil constitutionnel vient toutefois de prendre un autre chemin. Il avait à se prononcer sur la question de la constitutionnalité d’une précédente version de la loi encadrant cette obligation de conservation généralisée et indifférenciée. En considérant que celle-ci est disproportionnée, le Conseil constitutionnel s’aligne donc avec la ligne jurisprudentielle européenne que nous défendons depuis le début de cette bataille. Après toute cette résistance de la part du gouvernement et du Conseil d’État, ce sursaut est une bonne nouvelle.

Cette censure arrive toute fois un peu tard. Déjà, le Conseil constitutionnel n’était saisi que de l’ancienne version de l’article L. 34-1 du code des postes et des communications électroniques. Celle-ci constituait la base juridique de l’affaire pénale à l’occasion de laquelle la question avait été posée. Mais, entre-temps, cet article a été réécrit à l’été 2021 par l’adoption de la loi renseignement. Si la conservation des données est toujours prévue par les nouvelles dispositions, la manière dont elle est encadrée est plus complexe et suit l’interprétation opportuniste du Conseil d’État. Nous ne pouvons donc pas affirmer que la décision d’aujourd’hui amène forcément à une inconstitutionnalité de la nouvelle version de cet article.

Ensuite, le Conseil constitutionnel a décidé de se limiter au champ pénal seulement, ce qui veut dire que ni la surveillance à des fins de lutte contre le piratage, ni celle à des fins de renseignement ne sont concernées par la décision d’aujourd’hui. Or, comme on le voit depuis 2015, et plus récemment avec la question du partage de renseignements, le Conseil constitutionnel n’a jamais voulu entraver le travail de ces services de renseignement, quitte à nier les droits fondamentaux.

Nous accueillons donc positivement la décision du Conseil constitutionnel qui permet de poser une nouvelle pierre à l’édifice de protection de la vie privée mais nous devons garder à l’esprit ses limites pratiques. L’effet et le coût politique sont à relativiser : il est facile pour le Conseil constitutionnel de censurer des dispositions qui ne sont plus en vigueur. De fait, cette victoire juridique arrive trop tard puisque les pratiques de surveillance ont été validées par les initiatives du Conseil d’État, du gouvernement et de sa majorité au Parlement. Nous allons suivre de près les suites qui pourraient être données à cette décision, ce travail n’étant possible que grâce à votre aide.