PROJET AUTOBLOG


La Quadrature du Net

source: La Quadrature du Net

⇐ retour index

Résumé de la loi « haine » avant le vote de demain

mardi 2 juillet 2019 à 14:17

L’Assemblée nationale discutera demain et après-demain la proposition de loi « contre la haine en ligne ». Débattue en procédure accélérée, il pourrait s’agir du dernier passage de ce texte devant les députés. Leur dernier occasion pour le corriger.

Résumons la loi et nos critiques (pour notre analyse complète, voir ici).

Délai de 24h

Contenus censurés

Sites miroirs

Internet transformé en TV

Interopérabilité

Notre proposition sur l’interopérabilité, qui pourrait rendre utile cette loi autrement vaine et dangereuse, a été reprise dans 7 amendements déposés pour le débat de demain. Ces amendements réunissent les signatures de 64 députés, allant du centre-droit à la gauche. L’Assemblée nationale doit les adopter.

À l’opposé, le groupe En Marche propose un amendement pour obliger les plateformes à détecter la réapparition de tout contenu préalablement censuré, et ce avant même que cette réapparition ne leur soit signalée. Il s’agirait d’une violation pure et simple de l’article 15 de la directive européenne eCommerce qui définit depuis 2000 le statut juridique des hébergeurs : « Les États membres ne doivent pas imposer aux prestataires […] une obligation générale de rechercher activement des faits ou des circonstances révélant des activités illicites ». Cet amendement doit être rigoureusement rejeté.

Suivez le vote dès demain 16h30 sur le service vidéo de l’Assemblée. La lutte contre la haine ne doit pas être instrumentalisée pour renforcer le contrôle du Net par le gouvernement.

La loi « haine » va transformer Internet en télévision

lundi 1 juillet 2019 à 12:50

La proposition de loi portée par Laetitia Avia prétend vouloir faire du CSA « l’accompagnateur des plateformes » dans la lutte « contre la haine en ligne ». En réalité, la loi va beaucoup plus loin. Comme cela est redouté depuis plusieurs années, elle amorce la transformation de l’autorité en un grand régulateur de l’Internet, dans la droite lignée du « Comité Supérieur de la Télématique » fantasmé par François Fillon dès 1996. Entretenant la dangereuse confusion entre Internet et la télévision, la loi Avia participe à la centralisation et à l’extra-judiciarisation de l’Internet. Quitte à risquer de le transformer en une sorte de sombre ORTF 2.0.

La proposition de loi portée par Lætitia Avia doit être débattue à l’Assemblée Nationale le 3 juillet prochain. À côté des dangers que nous avons déjà soulignés (voir notre analyse juridique), la loi délègue un grand nombre de pouvoirs au CSA :

Il faut ranger ces pouvoirs à côté de ceux aussi acquis par le CSA dans la récente loi sur les fake news, (dite loi « relative à la lutte contre la manipulation de l’information »). Le CSA y avait en effet déjà récupéré des pouvoirs assez semblables, comme celui d’émettre des recommandations pour « améliorer » la lutte contre ces fausses informations.

Une vieille et mauvaise idée

Avant de comprendre les dangers qui pourraient résulter d’une telle délégation de pouvoirs, intéressons-nous rapidement à l’historique des relations entre le CSA et l’Internet. Car ce n’est pas la première fois que l’autorité veut s’arroger ce type de pouvoir.

Ainsi, en 1996, François Fillon, alors ministre délégué à la Poste, aux Télécommunications et à l’Espace, dépose un amendement dans le cadre des débats sur le « projet de loi sur la réglementation des télécommunications ». Il y propose la création d’un « Comité supérieur de la télématique » (CST), placé auprès du CSA, chargé d’élaborer des recommandations « propres à assurer le respect, par les services de communication audiovisuelle […] des règles déontologiques adaptées à la nature des services proposés ». Comme le raconte Owni.fr, il s’agissait surtout d’obliger les fournisseurs d’accès à Internet, en échange d’une non-responsabilité pénale des contenus postés, à suivre les recommandations de ce Conseil. Ce dernier allait ainsi devenir, selon Lionel Thoumhyre, « l’organe directeur de l’Internet français, gouverneur de l’espace virtuel ». L’article de loi a été par la suite heureusement censuré par le Conseil constitutionnel.

Depuis, l’autorité n’a jamais baissé les bras, aidée par de nombreuses personnalités politiques 1Pour un récapitulatif et une analyse plus complète, voir notamment l’article de Félix Tréguer sur le sujet, en 2015 : « Le CSA et la régulation d’Internet : une erreur ontologique »).<script type="text/javascript"> jQuery("#footnote_plugin_tooltip_2564_1").tooltip({ tip: "#footnote_plugin_tooltip_text_2564_1", tipClass: "footnote_tooltip", effect: "fade", fadeOutSpeed: 100, predelay: 400, position: "top right", relative: true, offset: [10, 10] });. Citons Dominique Baudis (président du CSA de 2001 à 2007) qui énonce en 2001 : « Je considère que tout ce qui concerne les médias audiovisuels, qui s’adressent à une masse de gens et qui ne sont ni du ressort de la correspondance privée, ni du commerce en ligne, relève de notre compétence. Le fait qu’ils ne soient disponibles que sur internet n’y change rien ». Ou en 2004 également, le gouvernement qui tente de profiter de la loi LCEN pour faire du CSA un grand régulateur de l’Internet (ce qui est finalement rejeté par le Parlement après de nombreuses critiques). Les tentatives reviendront ainsi à chaque débat, notamment sur les lois de l’audiovisuel.

Plus récemment encore, c’est Emmanuel Macron en novembre 2017, qui instrumentalise les violences faites aux femmes pour légitimer l’extension des pouvoirs du CSA. Et en septembre 2018, c’est le CSA lui-même qui appelle à ce que la régulation audiovisuelle comprenne désormais « les plateformes de partage de vidéos, les réseaux sociaux et les plateformes de diffusion en direct », précisant même que « la régulation doit permettre d’assurer que ces nouveaux acteurs mettent en place les mesures appropriées en matière de protection des mineurs, de lutte contre la diffusion de contenus incitant à la haine et à la violence […] ».

Pourquoi le CSA pour Internet, c’est mal

En lisant la loi Avia et les pouvoirs qui lui sont délégués, on ne peut que faire ce ce constat déprimant que le CSA est en train, à l’usure, de gagner. En lui donnant le pouvoir d’apprécier si l’opérateur a correctement retiré un contenu considéré comme « haineux », en lui donnant un pouvoir de sanction, en lui permettant d’émettre des recommandations sur la haine en ligne (comme elle le fait déjà sur les « fausses informations »), la proposition de loi se rapproche dangereusement de l’idée du « Comité Supérieur de la Télématique » de 1996 et participe donc à la confusion grandissante qu’il y a entre Internet et la télévision.

Or, faire cette confusion, c’est insulter ce que représente au départ Internet : un moyen justement de se soustraire à l’information linéaire et unilatérale de la télévision par la multiplication des canaux d’expression. L’analyse que faisait LQDN sur le sujet il y a plusieurs années tient toujours, et donne d’ailleurs la douloureuse impression de tourner en rond : « Le CSA régule la diffusion de contenus, de façon centralisée, par des acteurs commerciaux. Tenter d’imposer le même type de règles à la multitude d’acteurs, commerciaux et non-commerciaux, qui constituent le réseau décentralisé qu’est Internet, dans lequel chacun peut consulter, mais également publier des contenus, est une aberration. Internet c’est aussi la diffusion de vidéos, mais c’est avant tout la mise en œuvre de nos libertés fondamentales, le partage de la connaissance et de la culture, la participation démocratique, etc ».

Au-delà de l’aberration, vouloir télévisionner l’Internet, c’est vouloir le centraliser. C’est un moyen pour le gouvernement de reprendre le contrôle sur ce moyen d’expression qu’il ne maîtrise pas et cela passe par la création de lois pour et avec les grandes plateformes, en ne voyant Internet que par le prisme faussé des géants du Net, avec la menace qu’elles s’appliquent un jour à tous. Car il est toujours plus facile de ne traiter qu’avec un nombre restreint de gros acteurs (d’ailleurs plus prompts que les autres à collaborer avec lui.).

C’est aussi mettre dans les mains de l’administration des pouvoirs qui appartenaient auparavant au juge. C’est bien au CSA et non à un juge qu’il reviendra de décider si un contenu est haineux et méritait donc pour un opérateur d’être retiré en 24h. Et c’est donc, comme c’est déjà le cas pour la télévision, à l’administration qu’il reviendra de dire ce qui peut être dit ou diffusé sur Internet. Difficile à ce titre de ne pas faire le lien avec les récentes déclarations du secrétaire d’État au numérique qui menace cette fois-ci la presse de donner au CSA le pouvoir de « décider ce qu’est une infox ou pas ».

On en vient alors à se demander si, à travers cette loi, le gouvernement n’est pas en train d’instrumentaliser les débats sur la haine en ligne, ses victimes et Laetitia Avia elle-même pour reprendre la main sur Internet.

En déléguant au CSA de tels pouvoirs, avec l’objectif d’en faire le grand gendarme de l’Internet, la loi « haine » est un nouveau pas vers l’ORTF 2.0.

References   [ + ]

1. Pour un récapitulatif et une analyse plus complète, voir notamment l’article de Félix Tréguer sur le sujet, en 2015 : « Le CSA et la régulation d’Internet : une erreur ontologique »).
<script type="text/javascript"> function footnote_expand_reference_container() { jQuery("#footnote_references_container").show(); jQuery("#footnote_reference_container_collapse_button").text("-"); } function footnote_collapse_reference_container() { jQuery("#footnote_references_container").hide(); jQuery("#footnote_reference_container_collapse_button").text("+"); } function footnote_expand_collapse_reference_container() { if (jQuery("#footnote_references_container").is(":hidden")) { footnote_expand_reference_container(); } else { footnote_collapse_reference_container(); } } function footnote_moveToAnchor(p_str_TargetID) { footnote_expand_reference_container(); var l_obj_Target = jQuery("#" + p_str_TargetID); if(l_obj_Target.length) { jQuery('html, body').animate({ scrollTop: l_obj_Target.offset().top - window.innerHeight/2 }, 1000); } }

La CNIL veut autoriser les sites Internet à nous tracer sans notre consentement

vendredi 28 juin 2019 à 14:24

Hier, Mme Marie-Laure Denis, présidente de la CNIL, a expliqué en commission de l’Assemblée nationale que la CNIL prendrait le 4 juillet une décision injustifiable (voir la vidéo de 00:59:50 à 01:01:30). Aujourd’hui, la CNIL vient de préciser cette décision : au mépris total du droit européen, elle souhaite attendre juillet 2020 pour commencer à sanctionner les sites internet qui déposent des cookies sans respecter les nouvelles conditions du RGPD pour obtenir notre consentement.

Ces nouvelles conditions sont pourtant une des avancées majeures de ce texte : y renoncer revient à le vider de sa substance. Depuis l’entrée en application du RGPD le 25 mai 2018, notre consentement ne peut plus être « déduit » du simple fait que nous sommes informé·es par un vulgaire « bandeau cookie » et que nous ne prenons pas les mesures techniques nécessaires pour empêcher le dépôt des-dits traceurs. Notre silence ne vaut plus acceptation, enfin ! Désormais, tant que nous ne cliquons pas explicitement sur un bouton « j’accepte », il est strictement interdit de nous pister et de réaliser des profits sur nos données personnelles (précisons au passage que notre consentement ne doit pas seulement être « explicite » mais aussi « libre » : un bouton « je refuse » doit être proposé et le site doit rester accessible même si on ne clique pas sur « j’accepte »). Il s’agit là de l’une des principales avancées que nous avons obtenues au cour de la lutte menée dès 2014 au Parlement européen pour renforcer le RGPD, et que nous devons veiller à faire appliquer scrupuleusement (lire notre bilan).

C’est précisément en application de cette nouvelle règle du « consentement explicite » que la CNIL a sanctionné Google d’une amende de 50 millions d’euros en janvier dernier, dans le cadre de nos plaintes collectives et de celle de NOYB contre l’entreprise : le consentement qu’obtient Google n’est pas explicite mais déduit implicitement de notre absence d’opposition, en violation du RGPD. Aujourd’hui, la CNIL semble vouloir appliquer un droit différent entre Google et les médias français qui, eux, pourraient se contenter d’un consentement « implicite », violant tranquillement nos libertés fondamentales dans la poursuite de profits publicitaires intolérables.

À écouter la présidente de la CNIL, cette direction résulte de négociations avec le GESTE, un syndicat français de médias en ligne que nous avons l’habitude de combattre en matière de données personnelles. Ce dernier criait déjà victoire le mois dernier quand la CNIL avait commencé à céder à ses demandes et lui promettait : « le scroll et/ou le clic sur un élément de la page visitée, reste un mode valable d’expression du consentement, et ce jusqu’à juin 2020 ». Autrement dit : « la CNIL démissionne, ruons-nous pour tondre les moutons ! ».

En droit, les choses sont pourtant simples : il n’existe aucune possibilité laissée à la CNIL pour repousser jusqu’à juillet 2020 l’application du RGPD. Ce texte européen, adopté en 2016, prévoyait déjà une « période de transition », qui a entièrement pris fin le 25 mai 2018. La décision que la CNIL s’apprête à prendre violerait de plein front le droit européen et justifierait un recours en manquement contre la France par la Commission européenne.

De notre côté, si cette décision devait être prise, nous n’aurions guère le choix que de l’attaquer devant le Conseil d’État, de la même façon que nous avons pris l’habitude d’attaquer de nombreux actes du gouvernement (nous avions d’ailleurs déposé une demande CADA à la CNIL il y a un mois pour obtenir la décision révélée par le GESTE, afin de l’attaquer le cas échéant). En cas de victoire de notre part devant le Conseil d’État, difficile d’imaginer comment la présidente de la CNIL pourrait conserver suffisamment de légitimité pour ne pas démissionner.

Le collège de la CNIL se réunira ce 4 juillet pour choisir d’entériner ou non cette décision. Nous appelons chacune et chacun des 18 membres de la CNIL à s’y opposer vigoureusement. Au contraire, elles et ils doivent décider de la poursuite immédiate des sites Internet violant la loi. La lettre du RGPD est parfaitement claire, a déjà été expliquée en long, en large et en travers par le Comité européen à la protection des données et ne nécessite aucune précision supplémentaire pour être respectée. La protection de nos libertés fondamentales ne saurait connaître aucun sursis.

Partage de données : le renseignement français encore et toujours dans l’illégalité

vendredi 28 juin 2019 à 12:54

La Quadrature du Net vient de déposer un nouveau recours devant le Conseil d’État contre les activités de partage de données entre services de renseignement. Comme le révélait le journal Le Monde fin avril, depuis 2016, une infrastructure dédiée au siège de la DGSE permet aux services d’échanger des données collectées dans le cadre de leurs activités de surveillance, et ce sans aucun encadrement juridique. Ces activités illégales posent de nouveau la question de l’impunité des responsables du renseignement et des autorités de contrôle, et doivent cesser au plus vite.

Avec la loi relative au renseignement de 2015, l’État nous promettait que les barbouzeries illégales dont les services français étaient familiers ne seraient bientôt plus qu’un mauvais souvenir. Rien ne serait jamais plus comme avant : les buts et les moyens du renseignement étaient désormais clairement énumérés, la commission de contrôle dédiée, la CNCTR, veillerait au grain en lien avec le Conseil d’État. Fini le non-droit : le renseignement rentrait enfin dans le giron de l’État de droit…

Hélas, la loi adoptée à l’époque était déjà loin du compte, comme La Quadrature le fait d’ailleurs valoir dans ses multiples recours déposés devant le Conseil d’État, en lien avec les fournisseurs d’accès associatifs de la Fédération FDN.

Puis dès le printemps 2016, une première découverte montrait que les mauvaises habitudes avaient la vie dure. Au détour de « l’affaire Solère », nous nous rendions alors compte que le législateur avait reconduit dans la loi renseignement une vieille disposition relative à la « surveillance hertzienne », rédigée de manière tellement sommaire qu’elle laissait la possibilité de couvrir n’importe quelle mesure de surveillance et de contourner tous les mécanismes de contrôle prévus par ailleurs dans la loi. Nous avions alors eu gain de cause devant le Conseil constitutionnel, et le gouvernement avait dû réécrire cet article.

Fin 2016, lorsque l’on découvrit l’existence d’un contrat conclu entre la DGSI et Palantir, il devenait clair que les belles promesses de 2015 avaient fait long feu. Pour passer les téraoctets de données perquisitionnées dans le cadre de l’état d’urgence à la moulinette du Big Data, la DGSI s’offrait donc les outils d’analyse de cette sulfureuse entreprise liée au complexe militaro-industriel étasunien. Les caciques du renseignement français laissaient ainsi entendre que, chaque fois que le droit s’écarterait un peu des possibilités offertes par les technologies modernes de surveillance, le droit devrait s’incliner. Une stratégie d’ailleurs validée par le député Cédric Villani dans son rapport de 2018 sur l’intelligence artificielle, qui légitimait ces méthodes illégales en parlant d’expérimentation et de « logique de bac à sable ».

Fin avril 2019, le journal Le Monde révélait une autre affaire, à savoir l’existence de l’« entrepôt », surnom d’un « bâtiment ultrasécurisé » attenant au siège de la direction générale de la sécurité extérieure (DGSE), à Paris. Une sorte de data center dédié à la mutualisation des données entre services de renseignement. Sa création et son financement auraient été décidés en janvier 2016 sous l’autorité de François Hollande. Et au mois de juillet 2016, une des lois de prolongation de l’état d’urgence était venue fournir un semblant de base légale à cette infrastructure technique, en modifiant un article dédié — l’article L-863-2 — dans le Code de la sécurité intérieure1L’article L.~863-2 CSI indique : « Les services spécialisés de renseignement mentionnés à l’article L. 811-2 et les services désignés par le décret en Conseil d’État prévu à l’article L. 811-4 peuvent partager toutes les informations utiles à l’accomplissement de leurs missions définies au titre Ier du présent livre.
Les autorités administratives mentionnées à l’article 1er de l’ordonnance n°~2005-1516 du 8 décembre 2005 relative aux échanges électroniques entre les usagers et les autorités administratives et entre les autorités administratives peuvent transmettre aux services mentionnés au premier alinéa du présent article, de leur propre initiative ou sur requête de ces derniers, des informations utiles à l’accomplissement des missions de ces derniers.
Les modalités et les conditions d’application du présent article sont déterminées par décret en Conseil d’État.»
Créé par la loi de renseignement de 2015, la loi de 2016 est simplement venue changer le mot « échanger » par « partager ». C’est un amendement apporté en 1ère lecture par le Sénat par une sénatrice Les Républicains. À l’époque, celle-ci explique que « l’objectif est de permettre la mise en commun de toutes les informations dont disposent les services en lieu et place d’échanges bilatéraux, et ce dans un souci d’efficacité »
<script type="text/javascript"> jQuery("#footnote_plugin_tooltip_6573_1").tooltip({ tip: "#footnote_plugin_tooltip_text_6573_1", tipClass: "footnote_tooltip", effect: "fade", fadeOutSpeed: 100, predelay: 400, position: "top right", relative: true, offset: [10, 10] });.

Sauf que cette disposition de 2016 se contentait d’autoriser les services à partager leurs données sans rien préciser, alors même que le Conseil constitutionnel avait exigé en 2015 que le législateur fixe lui-même, sans s’en remettre au gouvernement, les conditions d’exploitation, de conservation et de destruction des informations collectées dans le cadre de la surveillance d’État2« En ne définissant dans la loi ni les conditions d’exploitation, de conservation et de destruction des renseignements collectés en application de l’article L. 854-1, ni celles du contrôle par la commission nationale de contrôle des techniques de renseignement de la légalité des autorisations délivrées en application de ce même article et de leurs conditions de mise en œuvre , le législateur n’a pas déterminé les règles concernant les garanties fondamentales accordées aux citoyens pour l’exercice des libertés publiques ; que, par suite, les dispositions du paragraphe I de l’article méconnaissent l’article 34 de la Constitution, doivent être déclarés contraires à la Constitution » (Cons. constit. Déc. n° 2015-713 DC du 23 juillet 2015, cons. 78).<script type="text/javascript"> jQuery("#footnote_plugin_tooltip_6573_2").tooltip({ tip: "#footnote_plugin_tooltip_text_6573_2", tipClass: "footnote_tooltip", effect: "fade", fadeOutSpeed: 100, predelay: 400, position: "top right", relative: true, offset: [10, 10] });. L’article 863-2 renvoyait à un décret pour préciser ses modalités d’application. Celui-ci ne fut jamais publié, le gouvernement craignant sans doute d’attirer l’attention sur l’inconstitutionnalité de sa base législative (une source du Monde évoque ainsi le « défaut de base constitutionnelle » de ce décret).

Or, les activités de surveillance relèvent de régimes plus ou moins permissifs. La DGSE, par exemple, dispose des moyens techniques et juridiques les plus larges, lui permettant d’intercepter d’immenses quantités de trafic au niveau des câbles de télécommunications transitant sur le territoire français (article L.854-1 et suivants). De même, des techniques du renseignement intérieur, comme les fameuses boîtes noires algorithmiques ou la surveillance en temps réel des métadonnées, ne sont autorisées que pour la lutte antiterroriste (articles L. 851-2 et L. 851-3)

Que se passe-t-il lorsque les données relevant de ces pouvoirs exorbitants sont versées au pot commun dans lequel peuvent potentiellement venir piocher des dizaines de milliers d’agents, relevant de services aux compétences et aux missions très diverses (TRACFIN, douanes, direction du renseignement de la préfecture de police de Paris, bureau central du renseignement pénitentiaire, ANSSI, service central du renseignement territorial, etc.) ? Certes, le gouvernement a déjà fait évoluer la loi l’an dernier pour faciliter la surveillance de résident·es français·se à partir du régime applicable aux communications internationales, là encore au mépris des engagements de 2015. Pour autant, celui-ci couvre un champ restreint. Faute d’être rigoureusement encadrés par la loi, l’essentiel des partages de données pratiqués à l’entrepôt de la DGSE sont donc nécessairement illégaux et profondément attentatoires aux droits fondamentaux.

La Quadrature vient donc d’attaquer ce dispositif devant le Conseil d’État (voir notre mémoire introductif). Dès que possible, nous soulèverons également une question prioritaire de constitutionnalité dans le cadre de cette procédure, afin de faire invalider l’article L. 863-2. Et avec lui, c’est l’ensemble des activités de partage de données entre services qui devra cesser en attendant que la loi soit précisée et que la transparence soit faite sur ces pratiques.

Au-delà, cette affaire pose aussi la question de la responsabilité, et de l’impunité récurrente, non seulement des hauts responsables politiques et administratifs du renseignement qui président à ces activités illégales, mais aussi de leurs autorités de contrôle (la CNCTR et Conseil d’État) qui acceptent de les couvrir.

References   [ + ]

1. L’article L.~863-2 CSI indique : « Les services spécialisés de renseignement mentionnés à l’article L. 811-2 et les services désignés par le décret en Conseil d’État prévu à l’article L. 811-4 peuvent partager toutes les informations utiles à l’accomplissement de leurs missions définies au titre Ier du présent livre.
Les autorités administratives mentionnées à l’article 1er de l’ordonnance n°~2005-1516 du 8 décembre 2005 relative aux échanges électroniques entre les usagers et les autorités administratives et entre les autorités administratives peuvent transmettre aux services mentionnés au premier alinéa du présent article, de leur propre initiative ou sur requête de ces derniers, des informations utiles à l’accomplissement des missions de ces derniers.
Les modalités et les conditions d’application du présent article sont déterminées par décret en Conseil d’État.»
Créé par la loi de renseignement de 2015, la loi de 2016 est simplement venue changer le mot « échanger » par « partager ». C’est un amendement apporté en 1ère lecture par le Sénat par une sénatrice Les Républicains. À l’époque, celle-ci explique que « l’objectif est de permettre la mise en commun de toutes les informations dont disposent les services en lieu et place d’échanges bilatéraux, et ce dans un souci d’efficacité »
2. « En ne définissant dans la loi ni les conditions d’exploitation, de conservation et de destruction des renseignements collectés en application de l’article L. 854-1, ni celles du contrôle par la commission nationale de contrôle des techniques de renseignement de la légalité des autorisations délivrées en application de ce même article et de leurs conditions de mise en œuvre , le législateur n’a pas déterminé les règles concernant les garanties fondamentales accordées aux citoyens pour l’exercice des libertés publiques ; que, par suite, les dispositions du paragraphe I de l’article méconnaissent l’article 34 de la Constitution, doivent être déclarés contraires à la Constitution » (Cons. constit. Déc. n° 2015-713 DC du 23 juillet 2015, cons. 78).
<script type="text/javascript"> function footnote_expand_reference_container() { jQuery("#footnote_references_container").show(); jQuery("#footnote_reference_container_collapse_button").text("-"); } function footnote_collapse_reference_container() { jQuery("#footnote_references_container").hide(); jQuery("#footnote_reference_container_collapse_button").text("+"); } function footnote_expand_collapse_reference_container() { if (jQuery("#footnote_references_container").is(":hidden")) { footnote_expand_reference_container(); } else { footnote_collapse_reference_container(); } } function footnote_moveToAnchor(p_str_TargetID) { footnote_expand_reference_container(); var l_obj_Target = jQuery("#" + p_str_TargetID); if(l_obj_Target.length) { jQuery('html, body').animate({ scrollTop: l_obj_Target.offset().top - window.innerHeight/2 }, 1000); } }

Deuxième analyse de la loi « haine »

jeudi 27 juin 2019 à 16:25

Le 3 juillet, l’Assemblée nationale examinera la proposition de Laetitia Avia « contre la haine sur Internet », déjà adoptée sans grand changement en commission des lois le 19 juin (lire notre réaction).

La Quadrature du Net a envoyé aux 577 députés l’analyse juridique reproduite ci-dessous (aussi en PDF), qui met à jour l’analyse envoyée à la commission des lois avant le vote de celle-ci.

Lettre aux députés : PPL Avia, refusez les mesures inutiles et dangereuses

Mesdames, Messieurs les députées,

Vous examinerez mercredi prochain la proposition de loi « contre la haine sur Internet ». En l’état, cette proposition ne permettra pas d’atteindre l’objectif qu’elle se donne mais renforcera uniquement les risques de censure politique.

La Quadrature du Net vous appelle à supprimer son article 1er et à modifier la loi tel qu’exposé ci-après.

Nous vous appelons à adopter tout amendement proposant d’obliger les grandes plateformes commerciales à devenir « interopérables » pour permettre aux victimes de se libérer des modèles économiques favorisant la haine.

A. Le champ personnel excessif du retrait en 24h

En droit, toute restriction de libertés, telle que la liberté de communication, n’est valide que si elle est strictement nécessaire à la réalisation de l’objectif qu’elle poursuit1Ce principe est le plus clairement exprimé à l’article 52 de la Charte des droits fondamentaux de l’Union européenne : « Toute limitation de l’exercice des droits et libertés […] ne peuvent être apportées que si elles sont nécessaires et répondent effectivement à des objectifs d’intérêt général ». Ce principe a été intégré dans le contrôle réalisé par le Conseil constitutionnel : « toute mesure restreignant un droit fondamental […] doit être adéquate, c’est-à-dire appropriée, ce qui suppose qu’elle soit a priori susceptible de permettre ou de faciliter la réalisation du but recherché par son auteur » (« Le contrôle de proportionnalité exercé par le Conseil constitutionnel », Cahier du Conseil constitutionnel n° 22 – juin 2007).<script type="text/javascript"> jQuery("#footnote_plugin_tooltip_5248_1").tooltip({ tip: "#footnote_plugin_tooltip_text_5248_1", tipClass: "footnote_tooltip", effect: "fade", fadeOutSpeed: 100, predelay: 400, position: "top right", relative: true, offset: [10, 10] });.

L’objectif poursuivi par cette PPL est de contenir la multiplication des discours de haine et de harcèlement survenue sur les grandes plateformes commerciales — Facebook, Youtube et Twitter. Pour ce faire, son article 1er exige le retrait en 24h des contenus signalés qui sont manifestement illicites, restreignant la liberté de communication tant de ces plateformes que de leurs utilisateurs.

Toutefois, cette obligation ne pèse pas seulement sur les grandes plateformes commerciales, à l’origine du problème, mais sur tout « opérateur » visé à l’article L111-7 du code de consommation et dont le nombre d’utilisateurs dépasse un seuil fixé par décret (qu’on nous annonce à 2 millions). En pratique, des sites sans activité commerciale tel que Wikipédia seront aussi concernés. Pourtant, leur modèle de modération qui repose sur une communauté bénévole et investie a su se montrer bien plus efficace pour limiter la diffusion de la haine et du harcèlement que les grandes plateformes commerciales. Ce constat n’est remis en cause ni par Mme Avia ni par le gouvernement.

Tout en restant perfectibles, les plateformes non-commerciales satisfont déjà largement l’objectif poursuivi par cette PPL. Pourtant, n’ayant pas de modérateurs professionnels, elles ne pourront en respecter l’article 1er et devront cesser leur activité devant la menace de sanctions inévitables. Cette restriction de leur liberté de communication est inutile et donc juridiquement invalide.

B. Un délai de 24h contre-productif

En droit, une mesure est invalide si elle restreint davantage de libertés que ne le ferait une autre mesure capable d’atteindre aussi efficacement l’objectif qu’elle poursuit2Ce principe découle de la jurisprudence du Conseil constitutionnel : « toute mesure restreignant un droit fondamental […] ne doit pas excéder – par sa nature ou ses modalités – ce qu’exige la réalisation du but poursuivi, d’autres moyens appropriés, mais qui affecteraient de façon moins préjudiciable les personnes concernées ou la collectivité, ne devant pas être à la disposition de son auteur » (article précité du Cahier du Conseil).<script type="text/javascript"> jQuery("#footnote_plugin_tooltip_5248_2").tooltip({ tip: "#footnote_plugin_tooltip_text_5248_2", tipClass: "footnote_tooltip", effect: "fade", fadeOutSpeed: 100, predelay: 400, position: "top right", relative: true, offset: [10, 10] });.

En l’espèce, imposer un délai de 24h pour retirer un contenu manifestement illicite est susceptible de provoquer d’importantes restrictions de libertés, tel que le sur-blocage de propos licites ou le dévoiement de la mesure à des fins de censure politique. Ce délai fixe produit un autre effet nocif : il empêche les plateformes d’examiner en priorité les contenus les plus graves ou les plus partagés, car elles doivent traiter tous les signalements, même les moins graves, dans un même et unique délai.

À l’inverse, le droit actuel (la loi pour la confiance dans l’économie numérique de 2004, LCEN) n’exige le retrait des contenus manifestement illicites que dans un délai « prompt » : proportionné à la gravité du contenu, aux conséquences et à l’ampleur de sa diffusion. Ceci permet de traiter en priorité les situations les plus nocives, ce qui est bien plus efficace pour atteindre l’objectif poursuivi par la loi, tout en réduisant les risques de sur-blocage et de censure politique.

Par ailleurs, imposer un délai de 24h serait d’autant plus inutile qu’il est matériellement irréaliste : dans bien des cas, il ne pourra être respecté par aucune plateforme et ne sera donc pas sanctionné. Exemple sinistre mais probant, la vidéo de la tuerie de Christchurch a été dupliquée 1,5 millions de fois sur Facebook dans les 24h suivant l’attentat, au cours desquelles 300.000 copies auraient entièrement échappé aux outils de modération automatisés de l’entreprise, de l’aveu même de celle-ci3« Update on New Zealand », Facebook Newsroom, 18 mars 2019, https://newsroom.fb.com/news/2019/03/update-on-new-zealand<script type="text/javascript"> jQuery("#footnote_plugin_tooltip_5248_3").tooltip({ tip: "#footnote_plugin_tooltip_text_5248_3", tipClass: "footnote_tooltip", effect: "fade", fadeOutSpeed: 100, predelay: 400, position: "top right", relative: true, offset: [10, 10] });. Cet événement a démontré l’incapacité structurelle des outils de modération automatisés à faire face à de telles menaces en 24h. La loi perdrait toute emprise sur le réel en exigeant l’inverse.

À l’inverse, le droit actuel a déjà pu s’appliquer concrètement contre un hébergeur ayant échoué à retirer en 24h un contenu illicite dans le cas où un tel délai était réaliste et où la situation le justifiait spécifiquement4Une affaire importante dans l’histoire de la LCEN est celle concernant la société AMEN qui, en 2009, a été condamnée par la cour d’appel de Toulouse pour ne pas avoir retiré dans la journée suivant leur signalement des écoutes téléphoniques diffusées par un des sites qu’elle hébergeait et concernant l’enquête judiciaire de l’affaire AZF. En 2011, la Cour de cassation a cassé cette décision car le signalement de ces écoutes ne respectait pas le formalisme stricte prévu par la LCEN. Toutefois, ce faisant, il est important de souligner que la Cour de cassation n’a absolument pas contesté qu’un délai « prompt » de 24 heures puisse correspondre à ce qu’exige la loi.<script type="text/javascript"> jQuery("#footnote_plugin_tooltip_5248_4").tooltip({ tip: "#footnote_plugin_tooltip_text_5248_4", tipClass: "footnote_tooltip", effect: "fade", fadeOutSpeed: 100, predelay: 400, position: "top right", relative: true, offset: [10, 10] });.

En conclusion, imposer un délai de 24h serait moins efficace qu’un délai apprécié au cas par cas, tel que prévu actuellement par la LCEN, car cela empêcherait de traiter les situations les plus graves en priorité tout en étant matériellement irréaliste, privant la loi de son lien au réel. Puisqu’une telle mesure restreindrait davantage de libertés que celles prévues actuellement par la LCEN, elle serait inutile et donc invalide.

C. Un délai de 24h favorisant la censure politique

En droit, le principe de la séparation des pouvoir exige que l’autorité qui poursuit les auteurs d’infractions (le pouvoir exécutif) soit distincte de celle qui constate ces infractions (pouvoir judiciaire) et que cette seconde autorité soit indépendante de la première5Garanti à l’article 16 de la Déclaration des Droits de l’Homme et du Citoyen de 1789 et à l’article 64 de la Constitution, un des principes fondamentaux de la séparation des pouvoirs est explicité à l’article préliminaire du code de procédure pénale comme « la séparation des autorités chargées de l’action publique et des autorités de jugement. »<script type="text/javascript"> jQuery("#footnote_plugin_tooltip_5248_5").tooltip({ tip: "#footnote_plugin_tooltip_text_5248_5", tipClass: "footnote_tooltip", effect: "fade", fadeOutSpeed: 100, predelay: 400, position: "top right", relative: true, offset: [10, 10] });.

En l’espèce, le délai de 24h pour retirer les contenus est si court qu’il empêchera les plateformes d’examiner tous les signalements avec le même niveau de diligence. Dans ces conditions, elles n’auront d’autres choix que de réaliser un examen sommaire, ou un retrait quasi-automatique, des contenus signalés par leurs utilisateurs jugés les plus fiables. Vraisemblablement, les contenus signalés par les comptes des services de la police seront traités de façon expéditive : Facebook ou Twitter seraient bien peu pragmatiques s’ils « perdaient du temps » à examiner les signalements de la police alors que des milliers de signalements à l’origine bien plus incertaine et complexe devront être examinés en urgence dans la même journée.

Ce pouvoir « de fait » de la police a déjà été dévoyé à des fins de censure politique. Dernier exemple en date : en réponse à une demande CADA de La Quadrature du Net, la police a expliqué avoir signalé à Google le 13 janvier 2019 une image caricaturant Emmanuel Macron sous les traites du dictateur Pinochet. Dans les documents transmis, le signalement est enregistré dans la catégorie « injures et diffamations xénophobes ou discriminatoires »6Le signalement de la caricature de Macron sous les traits de Pinochet est documenté sur le site de La Quadrature du Net : https://www.laquadrature.net/2019/05/09/une-loi-contre-la-haine-anti-macron<script type="text/javascript"> jQuery("#footnote_plugin_tooltip_5248_6").tooltip({ tip: "#footnote_plugin_tooltip_text_5248_6", tipClass: "footnote_tooltip", effect: "fade", fadeOutSpeed: 100, predelay: 400, position: "top right", relative: true, offset: [10, 10] });. Cette qualification, en plus d’être une aberration juridique, entre exactement dans le champ des infractions que la PPL Avia imposera de retirer en 24h.

En conclusion, l’article 1er de la PPL Avia, en exigeant d’évaluer la licéité des contenus signalés dans un délai de 24h, décuplera les risques de retrait de contenus signalés par la police qui, tout en étant licites, vexeraient le pouvoir exécutif. En pratique, cela permettra au gouvernement d’usurper l’autorité judiciaire, qualifiant lui-même les « infractions » contre lesquelles il prétend lutter et imposant cette qualification aux plateformes qui, menacées de lourdes sanctions, lui sont largement soumises et nullement indépendantes. Ce délai n’étant par ailleurs pas nécessaire, il est d’autant moins valide qu’il accroît sensiblement les risques de violation de la séparation des pouvoirs.

D. Une lutte illégitime contre les travailleuses du sexe

L’article 1 de la PPL, telle que complété en commission des lois, entend désormais lutter contre les infractions définies aux articles 227-23 et 227-24 du code pénale, qui punissent les faits « d’aider, d’assister ou de protéger la prostitution d’autrui » ou bien « de faire office d’intermédiaire entre deux personnes dont l’une se livre à la prostitution et l’autre exploite ou rémunère la prostitution d’autrui ».

Cet ajout poussera encore davantage Facebook et Twitter à exclure activement de leurs plateformes les travailleuses du sexe ainsi que leurs groupes d’entraide, leur fermant une alternative au travail en extérieur où elles seront exposées à bien plus de violences. Une telle situation trahit l’objectif de cette PPL qui prétend défendre les victimes de violences.

E. La conservation des données renforcée, en violation du droit de l’Union

L’article 3 bis du texte adopté en commission des lois propose d’augmenter la sanction des fournisseurs d’accès à Internet et des hébergeurs qui ne conservent pas les données de connexion de l’ensemble de leurs utilisateurs (adresses IP notamment), telle que fixée au 1 du VI de l’article 6 de la LCEN.

Dans son arrêt Tele27L’arrêt Tele2 Sverige AB, grande chambre de la Cour de justice de l’Union européenne, 21 décembre 2016, affaires C-203/15 et C-698/15, est commenté par notre équipe contentieuse à cette adresse : https://exegetes.eu.org/posts/tele2<script type="text/javascript"> jQuery("#footnote_plugin_tooltip_5248_7").tooltip({ tip: "#footnote_plugin_tooltip_text_5248_7", tipClass: "footnote_tooltip", effect: "fade", fadeOutSpeed: 100, predelay: 400, position: "top right", relative: true, offset: [10, 10] });, la Cour de justice de l’Union européenne a déclaré qu’une telle mesure de surveillance de masse est contraire à la Charte des droits fondamentaux de l’Union et que seules des mesures de conservation ciblée sur des personnes soupçonnées peuvent être autorisées. La Quadrature a contesté la conformité de l’obligation française devant le Conseil d’État, dont le rapporteur public a reconnu l’absence de conformité du droit français au droit de l’Union et conduit le Conseil à transmettre des questions préjudicielles à la Cour de justice de l’Union européenne à ce sujet8Voir la décision du Conseil d’État transmettant les questions à la Cour de justice, 10ème – 9ème chambres réunies, 26 juillet 2018, affaire n° 393099, https://www.legifrance.gouv.fr/affichJuriAdmin.do?oldAction=rechJuriAdmin&idTexte=CETATEXT000037253929&fastReqId=1863567356&fastPos=1<script type="text/javascript"> jQuery("#footnote_plugin_tooltip_5248_8").tooltip({ tip: "#footnote_plugin_tooltip_text_5248_8", tipClass: "footnote_tooltip", effect: "fade", fadeOutSpeed: 100, predelay: 400, position: "top right", relative: true, offset: [10, 10] });.

Dans l’attente de la réponse de cette dernière, la moindre des choses de la part du législateur serait de ne pas aggraver la violation par la France du droit de l’Union en renforçant la sanction de cette obligation inconventionnelle. Cet article doit être supprimé.

F. L’absence de garde fou à la lutte contre les sites miroirs

L’article 6 de la PPL permet à la police d’ordonner aux opérateurs Internet de bloquer un site sur lequel est reproduit un contenu illicite dont un juge a interdit « la reprise totale ou partielle ».

Ces nouveaux pouvoirs donnés à la police comportent de graves risques de dévoiement à des fins de censure politique. L’exemple donné plus haut de la vidéo de Christchurch en donne une illustration parfaite. Si un juge, doté des pouvoirs prévus par cet article 6, avait interdit « la reprise totale ou partielle » de la vidéo du massacre de Christchurch (hypothèse crédible), la police aurait eu toute liberté pour exiger le blocage de l’ensemble du site Facebook, dans la mesure où Facebook a été incapable de supprimer la vidéo, dont au moins 300 000 copies ont échappé à sa modération.

Mme Avia semble parfaitement ignorer cette réalité : il est impossible pour un hébergeur d’éviter que ses utilisateurs ne partagent la moindre copie d’un contenu interdit. Une poignée d’amateurs l’a parfaitement démontré en modifiant légèrement la durée, la couleur ou le son de la vidéo de Christchurch pour contourner presque entièrement les algorithmes de Facebook.

Si la « reprise totale ou partielle » d’un contenu était interdite par un juge, en application de cet article 6, absolument tout hébergeur serait virtuellement en violation de cette obligation du fait de certains des ses utilisateurs, sans qu’il ne puisse rien y faire. La police se trouvera seule à décider lesquels de ces sites seront censurés, entièrement libre de dévoyer ce choix arbitraire à des fins politiques. Hypothèse concrète : la police ne demanderait pas la blocage de la plupart des sites hébergeant un contenu interdit par un juge (tels que Facebook ou Youtube) mais exigerait le blocage de plateformes critiquant la politique du gouvernement et où un utilisateur malveillant aurait insidieusement publié le contenu interdit. Cette hypothèse est des plus crédibles lorsqu’on rappelle que l’OCLCTIC a déjà dévoyé de façon illégale ses pouvoirs de lutte contre le terrorisme pour tenter de censurer des plateformes d’extrême-gauche telles que Indymedia (voir le jugement du 31 janvier 2019 du tribunal administratif de Cergy-Pontoise, qui reconnaît cet abus de la police).

Une garantie classique contre cette dérive est le « principe de subsidiarité », déjà prévu de façon imparfaite (mais prévu toutefois) à l’article 6-1 de la LCEN en matière de censure administrative des contenus terroristes et pédopornographiques. Ce principe veut que les pouvoirs publics demandent d’abord à l’hébergeur de retirer le contenu interdit. Ce n’est que dans le cas où celui-ci refuse clairement de coopérer, lorsque lui a été laissé un délai suffisant pour ce faire et que sa défaillance ne résulte que d’une faute lourde et manifeste, que son blocage par les opérateurs Internet peut être considéré.

Sans rendre les mesures de censure efficaces ou légitimes, cette garantie est la moindre des choses requises. Il serait inconcevable que la lutte contre la haine soit encadrée de moins de garanties que la lutte contre le terrorisme.

G. La disparition du principe de subsidiarité en matière de signalement

L’article 1 bis du texte adopté en commission des lois crée un formalisme spécifique pour signaler les contenus visés à l’article 1 de la PPL. Ce formalisme est considérablement allégé comparé à celui du droit commun, tel que décrit à l’article 6, I, 5, de la LCEN.

La principale nouveauté de ce formalisme spécifique est que l’auteur d’un signalement n’aura plus à justifier avoir contacté au préalable l’auteur du propos problématique pour lui demander de le corriger. La suppression de cette exigence constitue un autre renoncement au « principe de subsidiarité », pourtant au cœur du mécanisme de signalement de la LCEN.

Ce principe veut que les utilisateurs tentent de régler les situations problématiques d’abord entre eux, notamment pour dissiper les simples malentendus ou confusions qui auraient pris l’apparence du conflit. Ce n’est que lorsque cette tentative a échoué que la plateforme doit être contactée pour résoudre le conflit. Ceci permet à la plateforme de se concentrer sur les cas les plus graves sans être retardée par des cas que les utilisateurs auraient résolus plus efficacement eux-mêmes.

Exemple typique : une personne cite sur Twitter un propos haineux pour le dénoncer ; un tiers est choqué par ce propos et n’est pas certain s’il s’agit d’un propos original ou d’une citation critique ; plutôt que de signaler le propos à Twitter, qui peine déjà tant à traiter les très nombreux signalements qu’il reçoit, il serait plus efficace que le tiers contacte lui-même l’utilisateur initial, afin que celui-ci dissipe la confusion et corrige son message initial pour le rendre moins ambigu.

La suppression de ce principe de proportionnalité dessert l’objectif de lutte contre les propos oppressifs, car surchargerait inutilement les plateformes de signalements qui auraient été plus efficacement traités autrement. Cet article 1 bis doit être supprimé.

H. L’interopérabilité, une solution plus efficace que la répression

Les mesures restrictives de libertés sont d’autant moins nécessaires, et donc valides, si le législateur pouvait adopter d’autres mesures qui, ne limitant aucune liberté, permettraient de se rapprocher davantage de l’objectif poursuivi. L’objectif de cette PPL n’est pas de sanctionner les auteurs de propos haineux mais uniquement de limiter la façon dont le public, et plus particulièrement les victimes, y sont exposées.

Comme vu ci-avant, le délai de 24h est contre-productif pour atteindre cet objectif. Son inefficacité résulte du fait qu’il ne cherche à traiter que les symptômes et non les causes. Or, deux des causes du problème que la PPL souhaite résoudre peuvent être efficacement traitées par le législateur.

1. Deux causes

Première cause : le nombre de personnes réunies sur les plateformes commerciales géantes facilite les stratégies de harcèlement, plaçant les victimes à portée immédiate de leurs oppresseurs. Leur taille est si importante qu’elle empêche toute modération crédible : Facebook ne pourra jamais embaucher assez de modérateurs pour ses 2 milliards d’utilisateurs revendiqués et ses outils automatisés ont prouvé leur inefficacité intrinsèque avec l’événement de Christchurch.

Seconde cause : Mme Avia dénonce elle-même le « lien pervers entre propos haineux et impact publicitaire : les personnes tenant des propos choquants ou extrémistes sont celles qui « rapportent » le plus, car l’une d’entre elles peut en provoquer cinquante ou cent autres. Sous cet angle, l’intérêt des réseaux sociaux est d’en héberger le plus possible »9Rapport visant à renforcer la lutte contre le racisme et l’antisémitisme sur internet, Karim AMELLAL, Laetitia AVIA, Gil TAÏEB, remis au Premier ministre
le 20 septembre 2018, https://www.gouvernement.fr/rapport-visant-a-renforcer-la-lutte-contre-le-racisme-et-l-antisemitisme-sur-internet
<script type="text/javascript"> jQuery("#footnote_plugin_tooltip_5248_9").tooltip({ tip: "#footnote_plugin_tooltip_text_5248_9", tipClass: "footnote_tooltip", effect: "fade", fadeOutSpeed: 100, predelay: 400, position: "top right", relative: true, offset: [10, 10] });. Ce que nous appelons « culture du buzz » ou « économie de l’attention » est au cœur du modèle des grandes plateformes commerciales, dont la raison d’être est de capter l’attention du plus grand nombre de personnes possible, le plus longtemps possible, afin de leur afficher de la publicité.

D’après Youtube, 70% des vidéo visionnées sur la plateforme le sont sur recommandation de son algorithme10« YouTube’s AI is the puppet master over most of what you watch », Cnet, 10 janvier 2018, https://www.cnet.com/news/youtube-ces-2018-neal-mohan<script type="text/javascript"> jQuery("#footnote_plugin_tooltip_5248_10").tooltip({ tip: "#footnote_plugin_tooltip_text_5248_10", tipClass: "footnote_tooltip", effect: "fade", fadeOutSpeed: 100, predelay: 400, position: "top right", relative: true, offset: [10, 10] });. Guillaume Chaslot, ancien employé de l’entreprise, explique que cet algorithme favorise avant tout les vidéos regardées le plus longtemps, indépendamment de leur contenu ou de leur réception par le public (pouces bleus et rouges). En étudiant ces recommandations, il constate que l’algorithme favorise les contenus agressifs, diffamants, choquants ou complotistes : « C’est comme une bagarre dans la rue, la plupart des gens s’arrêtent pour regarder, quasiment tout le monde réagit »11Guillaume Chaslot a notamment donné un entretien à ce sujet dans le numéro 5 de la revue Vraiment, paru le 18 avril 2018.<script type="text/javascript"> jQuery("#footnote_plugin_tooltip_5248_11").tooltip({ tip: "#footnote_plugin_tooltip_text_5248_11", tipClass: "footnote_tooltip", effect: "fade", fadeOutSpeed: 100, predelay: 400, position: "top right", relative: true, offset: [10, 10] });. Par leur effet sidérant, ces contenus retiendraient efficacement notre attention. Pour être mieux référencées, les vidéastes se retrouvent implicitement incités à en produire.

Twitter provoque une situation similaire : le fonctionnement de son « fil d’actualité », la brièveté des messages qu’il impose ainsi que ses mécanismes de citation favorisent l’invective, le buzz, le conflit, tout en rendant quasiment impossibles les propos d’apaisement et de compréhension qui peuvent rarement se tenir en 280 caractères. Quant à Facebook, pour séduire les annonceurs, il se vante directement d’être capable d’altérer l’humeur de ses utilisateurs en manipulant leur « fil d’actualité »12« Des utilisateurs de Facebook « manipulés » pour une expérience psychologique », Le Monde, 30 juin 2014, https://www.lemonde.fr/pixels/article/2014/06/30/des-utilisateurs-de-facebook-manipules-pour-une-experience-psychologique_4447625_4408996.html<script type="text/javascript"> jQuery("#footnote_plugin_tooltip_5248_12").tooltip({ tip: "#footnote_plugin_tooltip_text_5248_12", tipClass: "footnote_tooltip", effect: "fade", fadeOutSpeed: 100, predelay: 400, position: "top right", relative: true, offset: [10, 10] });, ce qui permet de faire naître les attentes et angoisses propices à la publicité tout en faisant rester les utilisateurs plus longtemps.

2. Une solution

Ces deux sources de mal-être (la taille ingérable des plateformes et leur culture du buzz) contribuent sensiblement au ressenti de « haine en ligne » contre lequel la PPL Avia entend lutter, sans toutefois rien proposer pour le résoudre efficacement. Une solution législative concrète serait de permettre aux utilisateurs de ces plateformes d’en partir : aujourd’hui, partir de Facebook ou de Twitter implique de ne plus communiquer avec toutes les personnes (famille, amis, soutiens) qui s’y trouvent. De nombreuses personnes sont donc contraintes de rester dans ces environnements toxiques, propices aux conflits et au harcèlement, car le coût social à payer pour s’en libérer est trop important.

Pour faire disparaître ce coût et permettre aux victimes de se protéger librement, la loi devrait obliger les grandes plateformes commerciales à devenir « interopérables » : qu’elles permettent à leurs utilisateurs de communiquer avec les utilisateurs d’autres plateformes similaires (dans le cas de Twitter, par exemples, ces « autres plateformes similaires » pourraient être les milliers de services utilisant le logiciel de micro-blogging décentralisé Mastodon). Ces autres plateformes, déjà nombreuses, offrent des règles de modérations variées et, ainsi, adaptées aux besoins et envies de chaque personne, allant de lieux « sanctuaires » ou non-mixtes à des espaces de discussions libres moins strictement modérés. Chaque personne peut librement choisir le type de modération correspondant à ses besoins.

D’un point de vue technique, respecter cette obligation serait facilité par les nombreux développements récents en matière de réseaux sociaux décentralisés, que ce soit de la part des acteurs du logiciel libre (GNU Social, Mastodon, Plemora, PeerTube…) ou des organisations internationales de normalisation, tel que le W3C (World-Wide Web Consortium) ayant publié en 2018 un protocole pour réseaux sociaux décentralisés, « ActivityPub ».

Nous vous appelons à adopter tout amendement proposant d’obliger les grandes plateformes commerciales à devenir interopérables pour permettre aux victimes de se libérer de leur modèle économique favorisant la haine.

References   [ + ]

1. Ce principe est le plus clairement exprimé à l’article 52 de la Charte des droits fondamentaux de l’Union européenne : « Toute limitation de l’exercice des droits et libertés […] ne peuvent être apportées que si elles sont nécessaires et répondent effectivement à des objectifs d’intérêt général ». Ce principe a été intégré dans le contrôle réalisé par le Conseil constitutionnel : « toute mesure restreignant un droit fondamental […] doit être adéquate, c’est-à-dire appropriée, ce qui suppose qu’elle soit a priori susceptible de permettre ou de faciliter la réalisation du but recherché par son auteur » (« Le contrôle de proportionnalité exercé par le Conseil constitutionnel », Cahier du Conseil constitutionnel n° 22 – juin 2007).
2. Ce principe découle de la jurisprudence du Conseil constitutionnel : « toute mesure restreignant un droit fondamental […] ne doit pas excéder – par sa nature ou ses modalités – ce qu’exige la réalisation du but poursuivi, d’autres moyens appropriés, mais qui affecteraient de façon moins préjudiciable les personnes concernées ou la collectivité, ne devant pas être à la disposition de son auteur » (article précité du Cahier du Conseil).
3. « Update on New Zealand », Facebook Newsroom, 18 mars 2019, https://newsroom.fb.com/news/2019/03/update-on-new-zealand
4. Une affaire importante dans l’histoire de la LCEN est celle concernant la société AMEN qui, en 2009, a été condamnée par la cour d’appel de Toulouse pour ne pas avoir retiré dans la journée suivant leur signalement des écoutes téléphoniques diffusées par un des sites qu’elle hébergeait et concernant l’enquête judiciaire de l’affaire AZF. En 2011, la Cour de cassation a cassé cette décision car le signalement de ces écoutes ne respectait pas le formalisme stricte prévu par la LCEN. Toutefois, ce faisant, il est important de souligner que la Cour de cassation n’a absolument pas contesté qu’un délai « prompt » de 24 heures puisse correspondre à ce qu’exige la loi.
5. Garanti à l’article 16 de la Déclaration des Droits de l’Homme et du Citoyen de 1789 et à l’article 64 de la Constitution, un des principes fondamentaux de la séparation des pouvoirs est explicité à l’article préliminaire du code de procédure pénale comme « la séparation des autorités chargées de l’action publique et des autorités de jugement. »
6. Le signalement de la caricature de Macron sous les traits de Pinochet est documenté sur le site de La Quadrature du Net : https://www.laquadrature.net/2019/05/09/une-loi-contre-la-haine-anti-macron
7. L’arrêt Tele2 Sverige AB, grande chambre de la Cour de justice de l’Union européenne, 21 décembre 2016, affaires C-203/15 et C-698/15, est commenté par notre équipe contentieuse à cette adresse : https://exegetes.eu.org/posts/tele2
8. Voir la décision du Conseil d’État transmettant les questions à la Cour de justice, 10ème – 9ème chambres réunies, 26 juillet 2018, affaire n° 393099, https://www.legifrance.gouv.fr/affichJuriAdmin.do?oldAction=rechJuriAdmin&idTexte=CETATEXT000037253929&fastReqId=1863567356&fastPos=1
9. Rapport visant à renforcer la lutte contre le racisme et l’antisémitisme sur internet, Karim AMELLAL, Laetitia AVIA, Gil TAÏEB, remis au Premier ministre
le 20 septembre 2018, https://www.gouvernement.fr/rapport-visant-a-renforcer-la-lutte-contre-le-racisme-et-l-antisemitisme-sur-internet
10. « YouTube’s AI is the puppet master over most of what you watch », Cnet, 10 janvier 2018, https://www.cnet.com/news/youtube-ces-2018-neal-mohan
11. Guillaume Chaslot a notamment donné un entretien à ce sujet dans le numéro 5 de la revue Vraiment, paru le 18 avril 2018.
12. « Des utilisateurs de Facebook « manipulés » pour une expérience psychologique », Le Monde, 30 juin 2014, https://www.lemonde.fr/pixels/article/2014/06/30/des-utilisateurs-de-facebook-manipules-pour-une-experience-psychologique_4447625_4408996.html
<script type="text/javascript"> function footnote_expand_reference_container() { jQuery("#footnote_references_container").show(); jQuery("#footnote_reference_container_collapse_button").text("-"); } function footnote_collapse_reference_container() { jQuery("#footnote_references_container").hide(); jQuery("#footnote_reference_container_collapse_button").text("+"); } function footnote_expand_collapse_reference_container() { if (jQuery("#footnote_references_container").is(":hidden")) { footnote_expand_reference_container(); } else { footnote_collapse_reference_container(); } } function footnote_moveToAnchor(p_str_TargetID) { footnote_expand_reference_container(); var l_obj_Target = jQuery("#" + p_str_TargetID); if(l_obj_Target.length) { jQuery('html, body').animate({ scrollTop: l_obj_Target.offset().top - window.innerHeight/2 }, 1000); } }