PROJET AUTOBLOG


La Quadrature du Net

source: La Quadrature du Net

⇐ retour index

46 organisations contre la loi « Drone 2 »

mardi 19 octobre 2021 à 13:38

Avec 46 organisations, nous publions cette lettre ouverte contre la loi « drone 2 », actuellement débattue par les sénateurs (relire notre analyse). Nous invitons vos organisations à signer notre lettre en nous écrivant à contact@laquadrature.net (objet: « signature lettre ouverte drone 2 ») et en diffusant cette lettre sur vos sites et réseaux. Merci beaucoup !

Lettre ouverte contre la loi « Drone 2 »

Le gouvernement est de retour pour autoriser les systèmes de surveillance qui, d’abord prévus dans la loi Sécurité globale, avaient été censurés par le Conseil constitutionnel en mai 2021. Cette nouvelle loi « relative à la responsabilité pénale et à la sécurité intérieure », a déjà été adoptée par l’Assemblée nationale le 23 septembre dernier. Le Sénat l’examinera le 18 octobre. Il doit la rejeter : contrairement à ce que prétend le gouvernement, ces systèmes de surveillance nuiront tant à notre liberté qu’à notre sécurité, dès lors qu’ils organisent l’escalade technologique des violences policières.

Les articles 8 et 9 autoriseront la surveillance par drone, hélicoptère et voiture. Depuis plus d’un an, la police déploie illégalement des drones pour nous surveiller, malgré deux interdictions du Conseil d’État, une sanction de la CNIL et une censure du Conseil constitutionnel. Les drones sont inutiles aux actions de médiation, d’apaisement et de dialogue avec la population. Ce sont des outils démultipliant les capacités de surveillance et de contrôle, qui facilitent avant tout les interventions violentes de la police, notamment en manifestation afin de dissuader les militant·es d’exercer leurs libertés de réunion et d’expression politique.

L’article 7 autorisera la vidéosurveillance des cellules de garde-à-vue. Le gouvernement prétend agir pour « diminuer les risques de suicide, d’automutilation, d’agression », comme s’il se souciait soudainement du bien-être des personnes qu’il réprime. Plutôt que de protéger les personnes arrêtées, il s’agira de renforcer les pressions et violences psychologiques causées contre elles par l’enfermement et une surveillance de chaque instant sans aucune garantie ni limitation sérieuse.

L’article 16 autorisera la police à recourir à la violence physique pour obtenir les empreintes digitales et la photographie des personnes suspectées d’avoir commis une infraction punissable d’au moins trois ans de prison. Cette violence pourra s’exercer contre des enfants de 13 ans, pour peu que la police les suspecte d’avoir commis une infraction punissable de cinq ans de prison. Les empreintes et photos ainsi obtenues pourront être recoupées avec les fichiers de police existants, notamment par reconnaissance faciale.

Cette loi organise un monde où les développements technologiques renforcent et justifient les violences que la police peut exercer contre la population. Cette escalade de la violence ne repose sur aucun besoin objectif qui serait soutenu par des études ou des chiffres concrets. Elle ne semble viser qu’au développement d’un État policier qui, une fois en place, ne s’encombrera pas des limites que le droit aurait tenté de lui poser (les quatre interdictions rendue l’an dernier n’ont pas empêché la police de déployer des drones, encore aujourd’hui 1Le Canard Enchaîné, 11 août 2021, Le préfet de police viole l’espace aérien, Didier Hassoux. : Capture<script type="text/javascript"> jQuery('#footnote_plugin_tooltip_17733_2_1').tooltip({ tip: '#footnote_plugin_tooltip_text_17733_2_1', tipClass: 'footnote_tooltip', effect: 'fade', predelay: 0, fadeInSpeed: 200, delay: 400, fadeOutSpeed: 200, position: 'top right', relative: true, offset: [10, 10], });).

Pour ces raisons, l’ensemble de ces mesures doivent être rejetées.

Ces dispositifs de surveillance ne sont pas les seuls dans cette loi susceptible de poser bien d’autres problèmes, pour aller plus loin :

Liste des signataires

References

References
1 Le Canard Enchaîné, 11 août 2021, Le préfet de police viole l’espace aérien, Didier Hassoux. : Capture
<script type="text/javascript"> function footnote_expand_reference_container_17733_2() { jQuery('#footnote_references_container_17733_2').show(); jQuery('#footnote_reference_container_collapse_button_17733_2').text('−'); } function footnote_collapse_reference_container_17733_2() { jQuery('#footnote_references_container_17733_2').hide(); jQuery('#footnote_reference_container_collapse_button_17733_2').text('+'); } function footnote_expand_collapse_reference_container_17733_2() { if (jQuery('#footnote_references_container_17733_2').is(':hidden')) { footnote_expand_reference_container_17733_2(); } else { footnote_collapse_reference_container_17733_2(); } } function footnote_moveToReference_17733_2(p_str_TargetID) { footnote_expand_reference_container_17733_2(); var l_obj_Target = jQuery('#' + p_str_TargetID); if (l_obj_Target.length) { jQuery( 'html, body' ).delay( 0 ); jQuery('html, body').animate({ scrollTop: l_obj_Target.offset().top - window.innerHeight * 0.2 }, 380); } } function footnote_moveToAnchor_17733_2(p_str_TargetID) { footnote_expand_reference_container_17733_2(); var l_obj_Target = jQuery('#' + p_str_TargetID); if (l_obj_Target.length) { jQuery( 'html, body' ).delay( 0 ); jQuery('html, body').animate({ scrollTop: l_obj_Target.offset().top - window.innerHeight * 0.2 }, 380); } }

JO 2024 : la frénésie sécuritaire

vendredi 15 octobre 2021 à 15:40

En 2024, Paris organisera les Jeux Olympiques d’été, l’occasion pour le gouvernement français et les industriels de s’allier pour tester, déployer et normaliser leur arsenal de nouveaux dispositifs de surveillance : drones, reconnaissance faciale, analyses de comportements… On revient ici sur ce que l’on sait aujourd’hui de ce projet dystopique, sur ce qui a déjà été testé et sur la résistance qui s’organise.

Les Jeux Olympiques, accélérateurs de surveillance

Les Jeux Olympiques sont depuis longtemps l’occasion d’une intensification des outils de surveillance de la population. Cela avait été le cas pour Pékin en 2008, avec un déploiement massif de caméras dans les rues et dans les transports en commun. Mais aussi à Rio de Janeiro où dès 2010, en préparation des JO de 2016, l’entreprise IBM profitait de cette occasion pour développer son Integrated Operation Centre, « Centre de commande et de coordination ». Ce centre de commande visait à agglomérer les données de la municipalité, des collectivités, des transports publics, de la météo, etc., dans le but d’obtenir de l’information en temps réel et de construire des modèles prédictifs de gestion de la ville. C’est le début du fantasme du pilotage à distance de la ville.

Enfin, les JO de Tokyo 2020 —qui ont finalement eu lieu à l’été 2021 — se positionnent comme les Jeux Olympiques ayant employé le plus de gadgets technologiques (voitures autonomes, robots, etc.) et les premières utilisations de la reconnaissance faciale. Cette dernière était prévue pour filtrer l’accès à certains lieux (en scannant les visages des athlètes, des journalistes, etc.) à l’aide d’un système fourni par l’entreprise japonaise NEC et la française Atos (également présente aux JO 2024). Plusieurs associations avaient ainsi dénoncé, en juillet 2021, le danger de la surveillance biométrique déployée à Tokyo. Si à Tokyo la reconnaissance faciale a été mise en place sur un public fortement limité par la crise sanitaire, les JO de Paris 2024 seraient le premier grand événement à déployer ce type de dispositif sur des millions de visiteurs et visiteuses.

Voici que les grands évènements deviennent des accélérateurs et transformateurs de la sécurité. Ils permettent de faire entrer dans le droit commun certaines technologies et pratiques jusqu’alors illégales, faisant ainsi sauter le verrou qui en bloquait la massification. En plein vote, la loi Drone 2 est à replacer dans le contexte des futurs Jeux Olympiques : le ministère de l’Intérieur a déjà acheté 600 drones et il voudrait pouvoir les utiliser pour les Jeux Olympiques.

Industriels et gouvernement main dans la main

Le gouvernement français ne compte pas non plus rater son rendez-vous de 2024. Michel Cadot, le délégué interministériel aux Jeux, considère ainsi que « la question de la sécurité est prioritaire » quand, de son côté, le préfet Pierre Leutaud souligne que « les innovations technologiques seront un atout majeur ». En septembre dernier, Jean-Michel Mis, député de la majorité, a rendu au Premier ministre un rapport tout entier destiné à la légalisation de ces nouveaux dispositifs de surveillance poussant à l’adoption d’une loi facilitant la surveillance biométrique pour les Jeux.

C’est encore plus franc du côté des industriels de la sécurité, qui se sont regroupés dans un comité intitulé « GICAT » — « Groupement des industries françaises de défense et de sécurité terrestre et aéroterrestre » —, un lobby de pression sur les pouvoirs publics visant à faciliter le déploiement de leurs dispositifs de surveillance. Son délégué, Gérard Lacroix, n’a aucun problème à souligner que les JO seront un enjeu essentiel pour les entreprises françaises et qu’il compte bien faire comprendre aux parlementaires la nécessité de « faire évoluer certains textes » trop restrictifs. Comprendre : les textes qui protègent les libertés.

Autres lobbies, ceux du « Comité Filière Industrielle de sécurité » pour « COFIS » (sorte de lien institutionnel entre les principales industries sécuritaires et le gouvernement) et du « Safe Cluster » (un « pôle de compétitivité des filières sécurité et sûreté »), tous deux directement à l’origine d’un site de lobby « J’innove pour les JO ».

Signalons enfin que l’État a déjà commencé à soutenir financièrement ces projets. Comme nous l’écrivions ici, l’Agence Nationale de la Recherche (ANR) a déjà financé à hauteur de plusieurs millions d’euros des expérimentations de vidéosurveillance automatisée (surveillance des réseaux sociaux, mouvements suspects, reconnaissance faciale), alors même que la plupart de ces projets sont purement illégaux.

Les préparations en amont : expérimentations en folie

Les JO se préparent de longue date et la coupe du monde de Rugby en 2023 semble se profiler pour être une sorte de répétition générale sécuritaire. Mais avant cela, il faut mettre au point les technologies, former les agent·es qui les utiliseront et anticiper les réactions du public. Il s’agit d’abord de financer, d’expérimenter en grandeur nature des technologies illégales. Alors que le cadre législatif n’autorise en aucun cas – pour l’instant – ce type de traitement des données biométriques, les industriels et les pouvoirs publics passent par le procédé très commode des « expérimentations ». Celles-ci, de par leur cadrage temporel et spatial, rendraient la surveillance (et la violation de la loi) plus « acceptable » – c’est d’ailleurs tout l’angle pris par Jean-Michel Mis dans son rapport technopolicier.

Ainsi, dès 2020, des expérimentations étaient prévues et confirmées en France, notamment pour essayer des dispositifs de reconnaissance faciale. À Metz, en 2020, un dispositif de reconnaissance faciale a ainsi été testé à l’entrée du stade, s’attirant les critiques de la CNIL (pour l’illégalité du projet) et des supporters.

Ce fut aussi le cas lors du tournoi Roland Garros, à l’automne 2020, où la Fédération Française de Tennis (FFT), en partenariat avec le Comité Stratégique de Filière « Industries de Sécurité » et l’équipe de marque des JOP 2024, a accueilli plusieurs expérimentations, comme annoncé au Sénat.

Les municipalités en profitent pour s’inscrire dans l’agenda sécuritaire

Au-delà de ces expérimentations, plusieurs collectivités s’organisent pour transformer en profondeur leur arsenal sécuritaire. C’est le cas d’Élancourt qui accueillera certaines compétitions des JO et qui a signé en 2019 un contrat avec l’entreprise GENETEC pour expérimenter de nouveaux types de vidéosurveillance. L’objectif de la ville est même de devenir une « vitrine » pour l’entreprise, avec un nouveau commissariat pour 2024.

C’est également le cas de Saint-Denis, où un centre de supervision urbain (CSU) flambant neuf a vu le jour en 2021. Le parc technique, aujourd’hui doté de 93 caméras, va être élargi pour atteindre les 400 caméras d’ici 2024 en vue des Jeux Olympiques. Et les élus planifient déjà de doter la vidéosurveillance d’intelligence artificielle pour automatiser la constatation des infractions.

Ainsi, les élu·es en profitent pour renouveler leurs dispositifs de surveillance et accélérer l’installation de technologies, surfant sur la vague sécuritaire.

Lutter contre les Jeux Olympiques et le monde qu’ils incarnent

Depuis longtemps, les Jeux Olympiques soulèvent réticences et contestations de la part des habitant·es des villes accueillant les épreuves, fissurant l’image parfaitement polie produite par le CIO et les métropoles. Au fil des années, les luttes contre les Jeux Olympiques et le monde qu’ils représentent se multiplient et se coordonnent à travers le monde.

En France, les collectifs NON aux JO 2024 et Saccage 2024 mettent l’accent sur le pillage social, écologique et sécuritaire que sont les JO 2024. La lutte s’était cristallisée autour des Jardins ouvriers d’Aubervilliers et du plan prévoyant leur remplacement par un solarium attachée à une piscine d’entraînement. Une occupation des terres avait même été lancée. Jusqu’à l’expulsion des militant·es et de la destruction de ces jardins, quelques jours avant qu’une partie du projet ne soit déclarée illégale par la justice. Des événements s’organisent, comme ici, à Aubervilliers, le 16 octobre, pour faire face à l’agression olympique qu’il s’agisse du cas d’Aubervilliers, d’autres villes ou plus généralement des questions de surveillance (lire la tribune « Non au Big Brother Olympique »).

Conclusion

La semaine prochaine s’ouvrira à Paris le salon Milipol, un des plus gros salons internationaux de sécurité intérieure. Un rendez-vous international de la répression. La crème de la technologie française s’exposera : Thalès, Evitech, Two I, Atos ou encore Idémia. Au programme notamment, un retour sur le G7 de Biarritz, considéré comme un modèle à suivre en termes de gestion de grands événements. Des inspirations pour les JO 2024 ?

Carte d’identité biométrique : sa genèse macronienne

jeudi 7 octobre 2021 à 14:37

En pleine mobilisation contre le passe sanitaire, la nouvelle est passée relativement inaperçue. Elle n’est pourtant pas sans lien : depuis le mois d’août 2021, les cartes d’identité délivrées embarquent dorénavant un code en deux dimensions contenant les données d’état civil, l’adresse du domicile, les informations sur la CNIe (numéro, date de délivrance, date de fin de validité), lisible par n’importe qui, et une puce biométrique lisible pour les usages « régaliens »..

Quelques jours plus tard, la multinationale française de l’identité IDEMIA a été retenue par l’Agence nationale des titres sécurisés (ANTS) dans le cadre du programme interministériel France Identité Numérique (le but de ce marché public est de permettre de contrôler l’identité d’une personne à l’aide d’un smartphone et de la nouvelle carte d’identité électronique).

C’est dans ce contexte que nous publions un extrait d’un texte de Félix Tréguer qui revient sur un moment important dans la genèse de ces dispositifs. Il a été publié dans un ouvrage collectif paru récemment aux Éditions Amsterdam et intitulé Le Nouveau Monde ? : Tableau de la France néolibérale (éds. Popelard, A., Burlaud, A., & Rzepski, G.).

En ce mois de décembre 2016, les arguments fusent au sein du groupe de travail « Défense et sécurité » constitué autour d’Emmanuel Macron, candidat déclaré à la présidence de la République. Depuis quelques semaines, par messages interposés 1La retranscription de ces échanges est réalisée à partir des courriers électroniques de la campagne Macron divulgués sur la plateforme WikiLeaks : https://wikileaks.org//macron-emails/emailid/55445 ;
https://wikileaks.org//macron-emails/emailid/51838 ;
https://wikileaks.org/macron-emails/emailid/54133.
Merci à la personne, qui se reconnaîtra, ayant attiré notre attention sur ce matériau.
<script type="text/javascript"> jQuery('#footnote_plugin_tooltip_17712_2_1').tooltip({ tip: '#footnote_plugin_tooltip_text_17712_2_1', tipClass: 'footnote_tooltip', effect: 'fade', predelay: 0, fadeInSpeed: 200, delay: 400, fadeOutSpeed: 200, position: 'top right', relative: true, offset: [10, 10], });, la petite équipe réfléchit à la réponse qu’il convient d’opposer au programme « sécurité » de François Fillon. Le concurrent de droite a émis le vœu d’imposer une carte d’identité biométrique aux Français ? Qu’à cela ne tienne ! Les conseillers du candidat Macron envisagent de reprendre la proposition, à l’image de François Heisbourg, expert en géopolitique et jadis directeur de Thomson CSF (devenu le géant de la défense Thales), ou encore de la commissaire Marianne Tarpin, hiérarque de la Direction générale de la sécurité intérieure (DGSI). Dans les échanges, les protagonistes insistent sur la nécessité de lutter contre la fraude à l’identité, en évoquant notamment les terroristes venus de Syrie ayant librement pu circuler à travers l’Europe à l’aide de faux-papiers, et on convient de creuser la question.

Anne Bouverot, alors présidente-directrice générale de Morpho (depuis devenu Idemia), leader français de l’identité biométrique, a récemment été cooptée par le petit groupe de conseillers. Dans une note qu’elle soumet à la réflexion collective, elle commence par souligner le coût de la carte d’identité biométrique – 2 euros l’unité, soit 140 millions d’euros environ pour l’ensemble de la population française – et invite à la faire directement payer par les citoyens. Le déploiement de cette carte permettra selon elle « une baisse de la fraude et des coûts associés », « une plus grande sécurité et [une] meilleure lutte contre le terrorisme ». Mais ce n’est pas tout : grâce à la reconnaissance faciale et aux données biométriques stockées sur la puce électronique de ce nouveau titre d’identité, une myriade d’autres usages sont également possibles, notamment pour le secteur privé. Bouverot évoque ainsi la possibilité « de valider l’identité d’une personne au moment d’une transaction numérique sécurisée : signature d’un contrat, achat d’un billet d’avion, transfert d’argent entre pays différents, etc. »

Dès le lendemain, le 12 décembre, Didier Casas, haut fonctionnaire et à l’époque directeur général adjoint de Bouygues Télécom, adresse un message à Alexis Kohler, le conseiller d’Emmanuel Macron qui deviendra secrétaire général de l’Élysée, et à Ismaël Emelien, en charge de la communication et des affaires stratégiques au sein de la campagne : l’identité biométrique, « vous achetez ou pas, franchement ? » « Honnêtement, bof », tranche Emelien quelques heures plus tard. La proposition ne figurera donc pas au programme du candidat Macron. L’identité biométrique – instaurée en France en 2009, sous la pression des États-Unis, avec la création du passeport biométrique – réalisera pourtant une percée décisive sous son mandat, que ce soit au travers de l’application pour smartphone ALICEM, expérimentée depuis juin 2019, ou de cette fameuse « carte nationale d’identité électronique » (CNIe), finalement lancée à l’été 2021.

Ces échanges, à la fois banals et remarquables, offrent un bon aperçu des processus qui président à la fuite en avant de la surveillance numérique : les intérêts à court terme des élites politiques, administratives et économiques s’entrecroisent, voire s’alignent au gré de leurs allers et retours entre public et privé, tandis que les désordres du monde et la surenchère politicienne nourrissent une escalade sécuritaire qui alimente à son tour l’industrie de la surveillance en lui assurant des débouchés. À la croisée des velléités de contrôle social, du soutien aux fleurons industriels, des tentatives de rationalisation bureaucratique et d’une propension toujours plus grande au « solutionnisme technologique », la surveillance se déploie et entretient la flambée du libéralisme autoritaire.

La suite à lire dans Le Nouveau Monde? : Tableau de la France néolibérale (éds. Popelard, A., Burlaud, A., & Rzepski, G.), paru aux Éditions Amsterdam.

References

References
1 La retranscription de ces échanges est réalisée à partir des courriers électroniques de la campagne Macron divulgués sur la plateforme WikiLeaks : https://wikileaks.org//macron-emails/emailid/55445 ;
https://wikileaks.org//macron-emails/emailid/51838 ;
https://wikileaks.org/macron-emails/emailid/54133.
Merci à la personne, qui se reconnaîtra, ayant attiré notre attention sur ce matériau.
<script type="text/javascript"> function footnote_expand_reference_container_17712_2() { jQuery('#footnote_references_container_17712_2').show(); jQuery('#footnote_reference_container_collapse_button_17712_2').text('−'); } function footnote_collapse_reference_container_17712_2() { jQuery('#footnote_references_container_17712_2').hide(); jQuery('#footnote_reference_container_collapse_button_17712_2').text('+'); } function footnote_expand_collapse_reference_container_17712_2() { if (jQuery('#footnote_references_container_17712_2').is(':hidden')) { footnote_expand_reference_container_17712_2(); } else { footnote_collapse_reference_container_17712_2(); } } function footnote_moveToReference_17712_2(p_str_TargetID) { footnote_expand_reference_container_17712_2(); var l_obj_Target = jQuery('#' + p_str_TargetID); if (l_obj_Target.length) { jQuery( 'html, body' ).delay( 0 ); jQuery('html, body').animate({ scrollTop: l_obj_Target.offset().top - window.innerHeight * 0.2 }, 380); } } function footnote_moveToAnchor_17712_2(p_str_TargetID) { footnote_expand_reference_container_17712_2(); var l_obj_Target = jQuery('#' + p_str_TargetID); if (l_obj_Target.length) { jQuery( 'html, body' ).delay( 0 ); jQuery('html, body').animate({ scrollTop: l_obj_Target.offset().top - window.innerHeight * 0.2 }, 380); } }

Règlement IA : l’Union européenne ne doit pas céder aux lobbys sécuritaires

mardi 5 octobre 2021 à 11:54

Alors qu’il se prétend protecteur de nos libertés, le projet de texte sur l’intelligence artificielle de l’Union européenne, présenté par Margrethe Vestager, veut en réalité favoriser le développement tous azimuts de l’IA, notamment sécuritaire.

Grevé d’exceptions, reposant sur une approche éculée de la gestion des risques et reprenant le discours du gouvernement français sur la nécessité de multiplier les expérimentations, ce texte doit être modifié en profondeur. Dans son état actuel, il risque de mettre en danger les maigres protections légales qu’offre le droit européen face au déploiement massif de techniques de surveillance dans l’espace public.

Le 21 avril 2021, la Commission européenne a publié une proposition de règlement pour une « approche européenne » autour de l’intelligence artificielle (IA), accompagnée d’un nouveau plan de coordination devant guider l’action des États membres pour les années à venir.

Au-delà de ces effets d’annonce de l’exécutif européen, la proposition de règlement est largement insuffisante au regard des menaces que représentent les systèmes d’IA pour les libertés fondamentales. Derrière le récit héroïque que propose la Commission européenne, se dissimule une attaque sournoise contre le droit européen à la protection des données personnelles, à travers une remise en question des principes acquis du RGPD et de la directive police-justice.

Accélérer le déploiement de l’IA sécuritaire

Loin de suspendre l’ensemble des systèmes d’IA violant manifestement le droit européen (comme les systèmes de reconnaissance faciale – nous en parlions ici) cette proposition se limite dans un premier temps (article 5) à interdire quatre « usages » spécifiques, tout en offrant de larges exemptions aux autorités nationales.

Sont visées par cette fausse interdiction, en très résumé, des IA de techniques « subliminales » ou exploitant la vulnérabilité des personnes pour « altérer substantiellement leur comportement », des IA de crédit social et des IA d’identification biométrique. En réalité, ces interdictions sont si limitées [pourquoi seulement ces quatre techniques, et pas plus ?] et si mal définies qu’on aurait presque l’impression que le but de la Commission européenne est d’autoriser le maximum de dispositifs plutôt que de véritablement en interdire certains (voir notamment à ce sujet l’analyse complète d’EDRi sur le texte).

L’exemple de l’identification biométrique est particulièrement parlant (le Considérant 23 du texte nous apprend que cette partie est d’ailleurs « lex specialis », c’est-à-dire qu’elle vient remplacer le droit existant sur la question des données biométriques). Est ainsi interdite l’utilisation d’un système d’identification biométrique « en temps réel » à des fins répressives sauf s’il est utilisé pour, notamment, rechercher des « victimes potentielles spécifiques de la criminalité » ou la « prévention d’une menace spécifique, substantielle et imminente pour la vie (…) des personnes physiques » ou la « prévention d’une attaque terroriste »… On le comprend, avec des exceptions aussi larges, cette interdiction est en réalité une autorisation, et en rien une interdiction, de la reconnaissance faciale.

Reprise du discours de l’industrie sécuritaire

Cette partie vient par ailleurs inscrire dans les textes une distinction voulue par les lobbys de l’industrie sécuritaire depuis longtemps, la distinction entre une surveillance biométrique en « temps réel » et une autre « a posteriori », la seconde étant censée être moins grave que la première. Cette distinction n’a pourtant aucun fondement : quelle différence entre une reconnaissance faciale de masse pratiquée dans l’instant ou quelques heures plus tard ?

Qu’importe, pour les rédacteur·ices du texte, la surveillance « en temps réel » est présentée comme étant interdite et celle « a posteriori » autorisée par principe (article 6). Une telle distinction est surtout une belle manière de rassurer certaines polices européennes (la France en tête) qui pratiquent déjà massivement la reconnaissance faciale.

La réutilisation de l’argumentaire porté par l’industrie sécuritaire ne s’arrête d’ailleurs pas là et s’illustre également à travers les exceptions admises pour cette surveillance biométrique en temps réel. L’utilisation de la reconnaissance faciale pour retrouver des « victimes potentielles spécifiques de la criminalité » comme des « enfants disparus » ou pour prévenir une attaque terroriste était ainsi exactement ce que demandaient les politiques et l’industrie pro-sécuritaire depuis plusieurs années.

Autorisations par principe

Alors que les précédentes versions du projet de règlement visaient à proscrire les systèmes d’IA permettant une surveillance généralisée des individus (on parlait en 2020 de « moratoire »), le texte finalement avalisé par le collège des commissaires élude largement la question de la surveillance indiscriminée, suggérant que l’exécutif européen a une nouvelle fois plié face à l’agenda sécuritaire des gouvernements européens.

Cet aveu d’échec se manifeste également à travers le choix fait par la Commission européenne dans les technologies qu’elle considère ne pas mériter une interdiction mais comme étant simplement à « haut risque ». Il s’agit par exemple des technologies de détection de mensonge, d’analyse d’émotions, de police prédictive, de surveillance des frontières… La liste de ces technologies à haut risque, ainsi qu’une partie des obligations auxquelles elles devraient se conformer, ne sont d’ailleurs pas détaillées dans le corps du texte mais dans des annexes que la Commission européenne se donne le droit de modifier unilatéralement.

Ces technologies ne sont donc pas interdites mais bien autorisées par principe, et simplement sujettes à des obligations supplémentaires (articles 6 et suivants1Voir notamment l’article 8 : « Les systèmes d’IA à haut risque respectent les exigences établies dans le présent chapitre. »<script type="text/javascript"> jQuery('#footnote_plugin_tooltip_17707_2_1').tooltip({ tip: '#footnote_plugin_tooltip_text_17707_2_1', tipClass: 'footnote_tooltip', effect: 'fade', predelay: 0, fadeInSpeed: 200, delay: 400, fadeOutSpeed: 200, position: 'top right', relative: true, offset: [10, 10], });).

Des analyses d’impact plutôt que des interdictions

Les garde-fous proposés pour réguler ces technologies sont largement insuffisants pour garantir un contrôle efficace de leurs usages, simplement pour la bonne raison que la plupart de ces systèmes ne font l’objet que d’un système d’auto-certification. Si cette approche, fondée sur l’analyse des risques, est destinée à rassurer le secteur privé, elle ne permet aucunement de garantir que les fournisseurs de systèmes d’IA respectent et protègent les droits humains des individus (voir à ce titre l’analyse de l’association Access Now).

La Commission européenne veut ici construire un droit de l’analyse d’impact : chaque dispositif pourra être déployé si la personne responsable a réalisé elle-même une « évaluation ex ante » de la conformité de son dispositif au droit européen. Mais les analyses d’impact ne limiteront pas le déploiement de la Technopolice. Les industriel·les et les collectivités ont l’habitude d’en faire et cela leur convient très bien. C’était le cas pour la reconnaissance faciale à Nice où la mairie avait transmis son analyse à la CNIL quelques jours avant son déploiement.

La Commission a ainsi fait un nouveau saut qualitatif dans ses efforts pour une « meilleure réglementation » en anticipant et satisfaisant, avant même le début des négociations, les campagnes de lobbying des géants du numérique au cours des années à venir.

Moins de recours pour les citoyen·nes, plus de déshumanisation

Il est également troublant d’observer qu’aucune disposition du texte n’offre de recours aux citoyen·nes vis-à-vis du déploiement de ces systèmes, la proposition se focalisant principalement sur la relation entre les entreprises fournissant ces systèmes et leurs client·es. Les quelques obligations de transparence ne visent d’ailleurs jamais la société civile mais des « autorités nationales » qu’il reste encore à désigner. Encore une fois, c’est presque déjà ce qu’il se passe en France : une grande partie des expérimentations mentionnées dans Technopolice (voir la carte) ont fait l’objet d’une communication avec la CNIL. Néanmoins, celle-ci ne rendant aucune de ces informations publiques, c’est à la société civile qu’il revient de demander la publication de ces échanges en vue de dénoncer ces dispositifs. Aucun changement n’est donc à espérer de ce côté.

La prise en compte de la société civile devrait pourtant être au cœur de l’approche européenne autour de l’intelligence artificielle, comme le rappelaient récemment des dizaines d’organisations de défense des droits humains.

Expérimenter pour normaliser

Autre preuve qu’il ne s’agit pas ici d’interdire mais, bien au contraire, de faciliter le développement de l’IA pour les grands industries, l’article 53 du règlement veut forcer les gouvernements à développer des « bacs à sable réglementaires de l’IA ». L’idée derrière : créer un environnement « qui facilite le développement, la mise à l’essai et la validation des systèmes d’IA », ou autrement dit, alléger l’industrie, notamment dans le secteur de la sécurité, des lourdes contraintes dues à la protection de nos droits et libertés pour leur permettre d’expérimenter plus facilement.

Il suffit de lire la réaction plus qu’enthousiaste d’un ancien de Thalès et d’Atos, Jean-Baptiste Siproudhis, à cette proposition, pour se douter que quelque chose ne va pas. À le voir parler des entreprises qui « deviendront demain une source principale d’inspiration directe des nouvelles normes » pour faire du règlement « une boucle du progrès », on ne peut que s’inquiéter de cette soumission du législateur aux désirs des industries.

Surtout que la situation peut encore se dégrader : plusieurs États membres veulent maintenant un texte séparé pour l’IA policière avec, on s’en doute, des interdictions encore plus floues et des exceptions encore plus larges.

Loin d’ouvrir « la voie à une technologie éthique dans le monde entier » selon les mots de la vice-présidente de la Commission Margrethe Vestager, ce plan consolide donc un agenda politique dicté par l’industrie sécuritaire où l’introduction de l’IA est nécessaire et inéluctable pour des pans entiers de la société, et repose sur une vision fantasmée et naïve de ces technologies et des entreprises qui les fournissent.

References

References
1 Voir notamment l’article 8 : « Les systèmes d’IA à haut risque respectent les exigences établies dans le présent chapitre. »
<script type="text/javascript"> function footnote_expand_reference_container_17707_2() { jQuery('#footnote_references_container_17707_2').show(); jQuery('#footnote_reference_container_collapse_button_17707_2').text('−'); } function footnote_collapse_reference_container_17707_2() { jQuery('#footnote_references_container_17707_2').hide(); jQuery('#footnote_reference_container_collapse_button_17707_2').text('+'); } function footnote_expand_collapse_reference_container_17707_2() { if (jQuery('#footnote_references_container_17707_2').is(':hidden')) { footnote_expand_reference_container_17707_2(); } else { footnote_collapse_reference_container_17707_2(); } } function footnote_moveToReference_17707_2(p_str_TargetID) { footnote_expand_reference_container_17707_2(); var l_obj_Target = jQuery('#' + p_str_TargetID); if (l_obj_Target.length) { jQuery( 'html, body' ).delay( 0 ); jQuery('html, body').animate({ scrollTop: l_obj_Target.offset().top - window.innerHeight * 0.2 }, 380); } } function footnote_moveToAnchor_17707_2(p_str_TargetID) { footnote_expand_reference_container_17707_2(); var l_obj_Target = jQuery('#' + p_str_TargetID); if (l_obj_Target.length) { jQuery( 'html, body' ).delay( 0 ); jQuery('html, body').animate({ scrollTop: l_obj_Target.offset().top - window.innerHeight * 0.2 }, 380); } }

Pour la liberté de choisir sa connexion à Internet

lundi 27 septembre 2021 à 17:45

En Europe, nous avons récemment confirmé le droit pour toutes et tous de choisir librement la manière dont on souhaite se connecter au réseau Internet à travers  la liberté de choisir son routeur. 


Le routeur, c’est ce qu’on appelle communément une box, comme celles que proposent les fournisseurs d’accès internet, comme les Livebox ou autres Freebox. Cette box, ou routeur, est avant tout un ordinateur : c’est  elle qui va se charger d’établir un lien entre notre logement et le reste du réseau de l’opérateur, et donc Internet. D’ailleurs, que ce soit pour de la fibre, de l’ADSL ou la 4G, nous avons dans tous les cas besoin de ce routeur, qui est parfois intégré à des smartphones et ordinateurs. 

Historiquement, nous avons milité pour la neutralité du net. Un peu comme on peut envoyer une lettre, et quel que soit son contenu, elle sera livrée sans discrimination. Sur Internet, il s’agit donc de pouvoir transmettre et accéder à n’importe quelle information de la même façon. C’est l’inverse des abonnements qui incluent par exemple un accès illimité à des plateformes de vidéo, tout en limitant l’accès au reste d’Internet. Donc c’est ne pas : (1) bloquer, (2) ralentir ou (3) faire payer de manière différenciée l’accès aux contenus.

Or le routeur est un élément essentiel de cette liberté. D’une part parce que ses performances peuvent grandement impacter notre liberté de connexion ; d’autre part parce que qui contrôle cette boîte, contrôle ce qui peut passer dedans – et surtout, peut voir ce qui passe dedans, avec toutefois des limites. Utiliser HTTPS et/ou un VPN permet de limiter cette surveillance. On peut aussi mentionner l’obsolescence programmée, ou encore, le fait de nous pousser à devoir payer des fonctionnalités qui ne sont pas forcément dans notre intérêt, comme un système multimédia, ou domotique. 

Nous devons donc, comme en ce qui concerne nos ordinateurs et smartphones, pouvoir choisir nos routeurs,  et pouvoir décider des logiciels et fonctionnalités de nos routeurs. La loi Européenne le permet : c’est à présent à l’Autorité de Régulation des Communications Électroniques et des Postes (ARCEP) de faire respecter cette loi, aux opérateurs de nous laisser la liberté de choisir, et à nous de faire usage de cette liberté. On pense aussi à l’usage de logiciels libres pour cela. Au final, choisir son routeur, ou tout autre matériel informatique, ainsi que choisir un logiciel libre qui tourne dessus sont deux faces d’un même combat pour la liberté informatique.

En solidarité avec le combat de la Free Software Foundation Europe (FSFE), nous relayons donc aujourd’hui sa campagne visant à faire connaître cette possibilité de liberté. Apprenez-en plus sur leurs positions  et comment défendre cette liberté (en anglais).

« The Internet » by Martin Deutsch is licensed under CC BY-NC-ND 2.0