PROJET AUTOBLOG


La Quadrature du Net

source: La Quadrature du Net

⇐ retour index

Mise à jour

Mise à jour de la base de données, veuillez patienter...

Coup d’État sur la « loi haine »

mercredi 22 janvier 2020 à 12:17

La loi « contre la haine » s’est transformée en loi sécuritaire au nom de la lutte « anti-terroriste ». Ce bouleversement a été acté hier à 22h30, par un amendement de dernière minute proposé par le gouvernement et adopté par les députés serviles de l’Assemblée nationale. Ce coup de force du gouvernement, imposé in extremis, est une nouvelle démonstration d’anti-parlementarisme. L’honneur des députés exige qu’ils rejettent la loi dans son ensemble.

Alors que la loi exigeait initialement de retirer les contenus illicites en 24 heures, elle impose désormais aux plateformes de retirer en une heure les contenus que la police lui signalera comme relevant du terrorisme ou d’abus sur mineurs. La police décidera seule des contenus relevant du terrorisme – sans le contrôle d’un juge. On l’a déjà vu abuser illégalement de ce pouvoir pour qualifier des propos militants de « terroristes » afin de les faire censurer – la justice avait alors attendu plus d’une année pour dénoncer ces abus de la police.

De plus, alors que la loi ne concernait initialement que les plateformes ayant plusieurs millions de visiteurs par mois (Facebook, Twitter, Youtube…), les nouvelles mesures « anti-terroristes » visent désormais n’importe quelle plateforme, de toute taille. Il pourra s’agir du forum de n’importe quel site de presse, d’une plateforme militante, d’un petit hébergeur associatif ou de tout nœud d’un réseau social décentralisé tel que Mastodon ou PeerTube.

Le délai d’une heure est matériellement impossible à respecter pour la grande majorité des plateformes Web (typiquement pour les signalements qui leur seraient faits de nuit). Ces plateformes n’auront d’autres choix que de fermer boutique ou de déléguer leur modération aux outils de censure automatisée fournis par Google et Facebook. Dans tous les cas, les grands vainqueurs seront ces deux dernières entreprises, dont la concurrence sera anéantie ou mise sous leur joug.

Enfin, alors que la loi initiale ne prévoyait que des sanctions financières, les nouvelles mesures prévoient des sanctions concrètes, drastiques. Si une plateforme ne censure pas un contenu dans l’heure qui suit sa notification par la police, la police pourra exiger que les fournisseurs d’accès à Internet empêchent l’accès à cette plateforme depuis la France.

Une concentration totale des pouvoirs

La concentration des pouvoirs dans les mains de la police est totale : c’est à la fois elle qui décide quelles plateformes attaquer, qui qualifie un contenu comme étant illégal et qui met en œuvre sa sanction. L’ensemble du Web français est à sa merci.

Si la police était mal intentionnée, il lui suffirait de publier anonymement et au milieu de la nuit des messages « terroristes » sur les plateformes de son choix pour les faire censurer (car presque aucune plateforme ne peut avoir des modérateurs réveillés toute la nuit pour répondre dans l’heure à la police). Rien dans la loi n’empêche de tels abus.

Notons que cette situation n’est pas entièrement nouvelle : c’est la loi anti-terroriste de 2014 qui avait créé ce dispositif de censure policière. À l’époque toutefois, le délai pour répondre à la police était de 24 heures. Il passe aujourd’hui à 1 heure, démultipliant les risques d’abus.

Un coup de force anti-parlementaire

Le Parlement n’a jamais eu l’occasion de débattre des dangers de ce nouveau délai d’une heure imposé à l’ensemble du Web. Le Parlement n’a même pas eu l’occasion d’en prendre connaissance. Pendant des mois de débats sur la proposition de loi « contre la haine », le Parlement n’a parlé que de sujets bien éloignés du terrorisme. Ce n’est qu’au dernier moment, en séance publique lors de la 2ème lecture à l’Assemblée nationale, et alors que le sujet n’avait pas été abordé en commission des lois, que le gouvernement est parvenu à lui imposer ces changements, par surprise et par ignorance. Il aurait pourtant fallu en débattre pendant des mois, en auditionnant des dizaines d’acteurs, pour prétendre respecter nos principes démocratiques.

La situation a tout pour rappeler un autre dossier : le règlement européen contre les contenus terroristes, qui prévoit lui aussi un délai de retrait en une heure. L’an dernier, la Commission européenne et les États membres avaient exercé une terrible pression sur le Parlement européen pour qu’il adopte en première lecture un texte en urgence avant les élections européennes (voir notre page de campagne). Tout avait été fait pour empêcher un véritable débat, mais il avait pu au moins durer quelques semaines – permettant notamment de limiter la censure policière par l’autorisation préalable d’un juge ou d’une autorité indépendante (et la loi française serait ici contraire à la position du Parlement européen).

Hier, le débat n’a pas même eu lieu.

Le gouvernement semble s’être lassé de la comédie démocratique. L’avis des parlementaires n’a plus aucune conséquence sur le processus législatif : à quoi bon leur permettre de s’en faire un ? Autant gagner du temps et leur demander de tout signer à la dernière minute et sans leur expliquer.

Si les députés ont encore un semblant de respect pour leurs fonctions démocratiques, ils doivent s’opposer à cette proposition de loi. Au moins du fait que le gouvernement a entièrement nié et insulté celles-ci hier. Et du fait, aussi, que le gouvernement a manipulé diverses volontés et associations luttant contre la haine afin de dévoyer au final la loi vers ses objectifs purement sécuritaires.

Formellement, l’Assemblée nationale doit encore décider d’adopter ou non cette proposition de loi dans son ensemble aujourd’hui. Tout député ne qui ne votera pas contre cette loi actera que le gouvernement l’a démis de ses fonctions.

Safe City à Marseille : Premier recours contre la vidéosurveillance automatisée de l’espace public

lundi 20 janvier 2020 à 09:59

Nous venons de déposer, avec la Ligue des droits de l’Homme, un recours en référé devant le tribunal administratif de Marseille pour lui demander d’annuler l’installation dans la ville d’un dispositif de vidéosurveillance automatisée (appelé « vidéoprotection intelligente »). Ce dispositif, décidé par la ville de Marseille, prévoit la mise en place de nouvelles technologies de surveillance dans l’espace public qui, pour l’essentiel, relèvent d’une surveillance biométrique généralisée : détection de comportements anormaux, suivi de silhouettes ou d’individus, captations sonores…

D’autres dispositifs similaires sont déjà installés en France ou sont en train de l’être, le tout dans l’opacité la plus complète. Leurs promoteurs considèrent que le cadre juridique de la vidéosurveillance leur suffit. Au même titre que la reconnaissance faciale, qui n’est qu’une des nombreuses couches applicatives de la vidéosurveillance automatisée, ces dispositifs participent pourtant à la mise sous surveillance totale de nos villes.

La Technopolice continue de se déployer en France, et la vidéosurveillance automatisée (ou « vidéoprotection intelligente » selon ses promoteurs) [1] est une de ses principales émanations. Fondée sur l’utilisation d’algorithmes déployés sur un système de vidéosurveillance, ces dispositifs promettent de détecter automatiquement dans l’espace public des objets abandonnés, des mouvements de foule, des « comportements anormaux » (gestes brusques, maraudages, agression…), de faciliter le suivi d’individus (par la silhouette, la démarche…), ou de faire des recherches par « filtres » sur des images enregistrées (à partir de photos d’un individu qu’il s’agirait de retrouver dans les milliers de flux vidéos afin de suivre son parcours). Après la multiplication des caméras de vidéosurveillance sur le territoire français, plusieurs entreprises cherchent à vendre aux collectivités ce système de « vidéo intelligente ». Comme l’expliquent les industriels, l’intérêt consiste à « pallier le manque récurrent de personnel disponible pour visionner les images de vidéoprotection ainsi que la capacité de concentration de ces agents », de « de limiter leur travail à une simple confirmation d’alertes ». Il est même avancé que «  la vidéoprotection ne saurait être efficace sans un système auto-intelligent permettant de trier et filtrer les images à analyser, et ce à une grande échelle ». Depuis plus de 10 ans, la vidéosurveillance a déferlé sans but sur nos villes : il semble temps de la rendre opérationnelle à travers l’automatisation.

De tels dispositifs mettent gravement en danger nos droits et libertés. Ils accroissent considérablement la capacité des services de police à nous identifier et à nous surveiller en permanence dans l’espace public. Tout comme la reconnaissance faciale, ils entraînent un contrôle invisible et indolore de la population, considérée comme suspecte de facto. Construits dans l’opacité la plus complète, il est par ailleurs impossible de comprendre ce qu’ils détectent avec exactitude : que veut dire Thalès quand il parle de « comportement inhabituel » et de suivi de « personnes suspectes » ? Que sous-entend l’entreprise Huawei quand, dans la description de son projet à Valenciennes, elle laisse inachevée sa liste des cas d’alerte relevés par la machine ( « traitement intelligent de l’image avec détection des mouvements de foules, objets abandonnés, situations inhabituelles…  ») ? Enfin, le suivi de « personnes suspectes » comprend-t-il la reconnaissance de démarches, donnée extrêmement individualisante et qui est bien plus difficile à dissimuler qu’un visage ?

Des systèmes de vidéosurveillance automatisée sont pourtant déjà en place en France, à Valenciennes donc, mais aussi à Nice, à Toulouse, à La Défense et bientôt dans les Yvelines. D’autres projets sont sûrement en cours, mais les informations sont difficiles à trouver. Leurs promoteurs considèrent en effet que, dans la plupart des cas, ces nouveaux ajouts à la vidéosurveillance rentrent dans le cadre de la « vidéosurveillance classique » et n’ont pas à être rendus publics.

Marseille, ville-test

Dans le cadre de la campagne Technopolice, et à travers des demandes d’accès aux documents administratifs, nous avons appris qu’en 2015, la mairie de Marseille avait lancé un appel d’offres pour installer un de ces systèmes de vidéosurveillance automatisée dans sa ville et qu’en novembre 2018, ce marché avait été attribué à une entreprise. Croisée au salon Milipol, l’adjointe au maire de Marseille en charge de la sécurité, Caroline Pozmentier, nous a confirmé qu’il s’agissait du groupe SNEF, un intégrateur de solutions de vidéosurveillance basé dans la citée phocéenne. Nous avons fini par avoir communication de certains documents liés à ce marché, dont le « Programme Fonctionnel Technique final » qui détaille précisément ce que la mairie entend mettre en place.

Dans ce document, il est ainsi indiqué que « les opérateurs ne peuvent pas visualiser l’ensemble des flux » et qu’il « est donc nécessaire que la solution logicielle permette d’effectuer de façon autonome cette visualisation ». Parmi les fonctionnalités envisagées, se trouve le « traitement automatique de donnés (…) afin de détecter des anomalies/incidents/faits remarquables », la « détection d’anomalies non identifiables par un opérateur » et la « gestion de l’espace public, analyse des piétons/véhicules ainsi que des comportements ». On y retrouve les mêmes cas d’usage que dans d’autres systèmes : détection d’ « objets abandonnés », de « TAG » (graffitis) et de « vol/disparition/destruction de mobilier urbain ». Il est aussi précisé que l’outil doit aider dans le cadre d’affaires judiciaires et permettre de « faire des recherches à l’aide de filtres », l’un de ces filtres étant « individu (description, avatar, photo) ». Une dernière partie intitulée « Fourniture et intégration de fonctionnalités complémentaires » indique que la mairie se réserve la possibilité d’ajouter de nouvelles fonctionnalités dont la « détection sonore » (explosion, coup de feu…), la « reconstitution d’évènements » (comme le parcours d’un individu) ou la détection de « comportements anormaux » (bagarre, maraudage, agression).

Le mois dernier, dans un article de Télérama, le journaliste Olivier Tesquet révélait que le dispositif devait être installé à Marseille « d’ici à la fin de l’année 2019 » et que « la Cnil n’a jamais entendu parler de ce projet ».

L’étendue de ce projet, la description extensive de ses fonctionnalités et sa récente mise en place nous ont poussé à agir le plus vite possible.

Un recours contre la vidéosurveillance automatisée, premier du genre en France

Dans notre recours déposé lundi devant le tribunal administratif de Marseille, nous reprenons certains des arguments déjà développés dans notre recours contre les portiques de reconnaissance faciale dans deux lycées de la région PACA (un projet depuis entravé par la CNIL). Nous soulignons ainsi que la décision de la mairie de mettre en place ce dispositif n’a été précédée d’aucune analyse d’impact ou de consultation de la CNIL, contrairement à ce qui est prévu dans la directive dite « police-justice » qui encadre les pouvoirs de surveillance des autorités publiques dans l’Union européenne. Nous soulignons également que la vidéosurveillance automatisé n’est encadrée par aucun texte juridique alors qu’il s’agit d’un type d’ingérence dans la vie privée tout-à-fait nouveau, et bien différent de la vidéosurveillance « classique » : l’automatisation transforme la nature de l’ingérence induite par la vidéosurveillance. Les nouveaux équipements déployés à Marseille disposent en outre de capteurs sonores (ces mêmes capteurs sonores que dénonçait la Cnil dans le projet de Saint-Etienne). De manière générale, le système entier conduit à passer d’une surveillance « passive » à une surveillance « active »). Comme pour les lycées, nous avons aussi attaqué le caractère manifestement excessif et non justifié de la collecte de données.

Le recours démontre par ailleurs que la grande majorité du traitement de données qui est fait dans ce dispositif est un traitement de données biométriques, donc soumis aux dispositions spécifiques de la directive police-justice sur les données sensibles (dont l’utilisation est beaucoup moins permissive que pour les autres types de données personnelles). En effet, les données biométriques sont définies comme des données personnelles « résultant d’un traitement technique spécifique, relatives aux caractéristiques physiques, physiologiques ou comportementales d’une personne physique, qui permettent ou confirment son identification unique ». Or, comme l’a souligné le Comité européen de protection des données, une « identification unique » n’implique pas nécessairement de révéler l’état civil d’une personne mais, plus largement, de pouvoir individualiser une personne au sein d’un groupe, ce qui est bien le cas en espèce. Or, une fois la qualité de donnée biométrique établie, la directive police-justice exige une « nécessité absolue » pour les analyser. Ce qui n’est clairement pas le cas ici : d’autres moyens, humains, existent déjà pour analyser les images et mener les enquêtes.

Enfin, dans ce recours, nous détaillons pourquoi, en confiant à la SNEF et à ses algorithmes, l’identification, la catégorisation et la détection d’incidents, d’anomalies et de comportements suspects sur la voie publique (certains explicitement « non identifiables par un opérateur »), et en faisant de son outil une véritable « aide à la décision » pour la police municipale, la mairie a délégué à une entreprise privée une mission de surveillance généralisée de la voie publique. Ce qui, selon le Conseil Constitutionnel est contraire à « l’exigence, résultant de l’article 12 de la Déclaration des droits de l’homme et du citoyen de 1789, selon laquelle la garantie des droits est assurée par une « force publique » ».

Encore une fois : d’autres dispositifs semblables sont actuellement déployés en France ou s’apprêtent à l’être : Nice, Toulouse, Valenciennes, La Défense… Nous vous invitons à réutiliser nos arguments pour multiplier les contentieux et tenir en échec l’expansion de la surveillance algorithmique de nos villes et de nos vies.

Rejoignez Technopolice.fr pour participer à la veille, l’analyse et la lutte de ces nouveaux dispositifs.

[1] Si les termes peuvent paraître proches, il est important de refuser de considérer un tel système comme « intelligent »

Lettre commune contre la loi « haine »

jeudi 16 janvier 2020 à 18:56

Nous venons d’envoyer aux députés la lettre reproduite ci-dessous, pour s’opposer à la loi « haine ».

Nous la signons aux côtés de :

La loi sera examinée par l’Assemblée nationale ce mardi 21 janvier. Vous aussi, contactez les députés pour leur demander de rejeter ce texte en visitant cette page.

Objet : Appel collectif à préserver nos droits fondamentaux dans l’espace public en ligne – Proposition de loi visant à lutter contre la haine sur Internet

Madame la garde des Sceaux,
Monsieur le secrétaire d’État chargé du Numérique,
Madame la Rapporteure,
Mesdames et Messieurs les Député(e)s

En tant que principaux représentants de la société civile numérique française, acteurs de la défense des droits et de la mobilisation citoyenne en ligne, nous partageons une profonde inquiétude quant au risque que ferait encourir à nos droits et libertés fondamentaux la proposition de loi visant à lutter contre la haine sur Internet, si elle imposait aux opérateurs de plateformes un délai de 24h pour décider du retrait des contenus qui leur seront signalés. À l’occasion de sa nouvelle discussion au sein de l’Assemblée nationale, nous portons un appel fort à tenir compte, dans la version finale du texte, des alertes que chacune de nos organisations a pu individuellement ou collectivement porter.

Les opérateurs de plateformes participent désormais grandement à la structuration de l’espace public en ligne. Engagés dans la préservation d’un espace en ligne libre et respectueux de nos valeurs démocratiques et de nos droits fondamentaux, nous partageons la nécessité de questionner le rôle des grandes plateformes dans la lutte contre les contenus haineux sur Internet. Paradoxalement, cette exigence se traduit, dans le texte discuté, par le renforcement du rôle de ces mêmes acteurs dans le contrôle de notre espace public au détriment du premier garant de nos libertés individuelles qu’est le juge. De plus, cette logique tend à renforcer une situation d’oligopole dans laquelle nous nous trouvons déjà, par un encouragement à l’usage de solutions détenues par les acteurs aux ressources les plus grandes.

En contournant les prérogatives du juge judiciaire, l’obligation de retrait des contenus haineux par les opérateurs de plateformes dans un délai de 24 heures porte atteinte aux garanties qui nous permettent aujourd’hui de préserver l’équilibre de nos droits et libertés fondamentaux. Au regard des dispositions du texte, les opérateurs de plateformes seront incités à opter pour de la surcensure afin d’éviter d’être sanctionnés. À ce titre, nous nous inquiétons du rôle confié à des dispositifs technologiques de filtrage automatisés, qui font encore preuve de limites techniques profondes dans leur capacité à modérer, y compris parmi ceux les plus avancés. Ces limites sont d’autant plus prégnantes en ce qui concerne les contenus haineux dont la caractérisation juridique est souvent complexe. Or, le texte porte une acception particulièrement large de ces derniers.

Au regard de ses conséquences sur notre société, et en premier lieu sur les victimes de ces atteintes à la dignité humaine, nous devons considérer avec gravité le phénomène de propagation des contenus haineux en ligne. Il est, à cet égard, primordial d’engager un plan ambitieux d’éducation au numérique et de penser de manière plus transversale la régulation du numérique. Par ailleurs, alors que la France entend jouer un rôle majeur dans la politique numérique future de l’Union européenne, il est essentiel que la proposition visant à lutter contre la haine en ligne puisse se faire en adéquation avec le droit européen, au risque sinon de fragiliser nos dispositifs juridiques ainsi que de fragmenter toujours plus la stratégie numérique pour l’Europe et de mettre à mal son efficience. L’Union européenne se doit de rester au premier rang de la défense de nos valeurs fondamentales dans le champ numérique, et la France se doit d’en demeurer le porte-voix.

Nous vous savons attentifs à l’équilibre entre nos droits fondamentaux, ainsi qu’à la préservation de notre souveraineté. Aussi, nous nous associons collectivement pour vous appeler à en tenir compte dans le cadre de cette nouvelle lecture.

Restant à votre disposition pour contribuer à vos réflexions, nous vous prions d’agréer, Madame la garde des Sceaux, Monsieur le secrétaire d’État chargé du Numérique, Madame la Rapporteure, Mesdames et Messieurs les Député(e)s, l’expression de notre très haute considération.

La pire version de la loi haine, adoptée en commission des lois de l’Assemblée nationale

mercredi 15 janvier 2020 à 12:35

Sans beaucoup de surprise, ce que nous redoutions s’est bien réalisé. Hier soir, en commission des lois de l’Assemblée nationale, Laetitia Avia est parvenue à rétablir la même version du texte (à quelques modifications près) qu’elle avait fait adopter l’été dernier par l’Assemblée nationale. Les timides corrections que le Sénat avait introduites le mois dernier ont été balayées.

Qu’importe : en démocratie, c’est l’Assemblée nationale, entièrement tenue par les fidèles du gouvernement, qui décide seule des lois à adopter. Comme pour la loi « fakenews » de 2018 (adoptée en procédure accélérée et contre deux votes contraires du Sénat), la loi « contre la haine » passera le 30 janvier une dernière fois au Sénat (pour rien) avant un dernier vote final à l’Assemblée nationale début février. C’est ce dernier vote qui aura le dernier mot.

Avant cela toutefois, le 21 janvier, l’Assemblée nationale devra encore confirmer le texte adopté hier en commission des lois. Si nous échouons à l’en dissuader, les chances d’y parvenir en février semblent bien minces.

Et pourtant, en dehors du Parlement, ce texte fait l’unanimité contre lui : Commission européenne, CNNum, ARCEP, ONU, associations de défense des personnes que cette loi prétend défendre (relire notre bilan).

Appelons les députés pour exiger qu’ils rejettent cette loi aussi dangereuse pour nos libertés que contre-productive pour lutter contre la haine.

Rendez-vous sur cette page pour les contacter et relire nos arguments contre ce texte.

Le Conseil constitutionnel autorise le fisc à la surveillance de masse

lundi 30 décembre 2019 à 08:01

Le Conseil constitutionnel, dans sa décision rendue vendredi dernier, vient de considérer que la surveillance généralisée des réseaux sociaux prévue par l’article 154, ex-57, de la loi de finances pour 2020 est conforme à la Constitution.

Comme nous le dénoncions, cet article prévoit une collecte puis une analyse de masse des données publiques des réseaux sociaux. Des données sensibles seront collectées, par exemple sur notre vie sexuelle, politique ou religieuse. Au point 87 de sa décision, le Conseil constitutionnel s’est contenté d’interdire la seule exploitation des données sensibles, laissant possible leur collecte en masse, ce qui est tout aussi dangereux et contraire au droit européen.

L’article 10 de la directive police-justice n° 2016/680 interdit tout traitement de données sensibles qui ne soient pas justifié par une « nécessité absolue ». En l’espèce, la lutte contre les infractions fiscales peut être réalisée par bien d’autres moyens humains déjà mis en œuvre. Ni le gouvernement, ni le Conseil n’ont été capables d’expliquer en quoi la surveillance algorithmique est nécessaire à la lutte contre la fraude fiscale.

Enfin, le Conseil constitutionnel prétend que les contrôles fiscaux ne seront pas déclenchés automatiquement par les algorithmes de détection de fraude, mais reposeraient sur un travail humain. Cette affirmation traduit une grande naïveté et laisse en tout état de cause la porte ouverte à plus d’arbitraire dans les décisions administratives : comment contrôler le résultat d’un algorithme qui ne peut être expliqué et reproduit1Le Conseil constitutionnel estime que l’obligation de « corroboration et enrichissement » exigée par la loi écarterait tout contrôle fiscal automatique. Pourtant, avec l’utilisation d’algorithmes auto-apprenants dont le résultat ne peut être reproduit et expliqué, cette opération ne sera rien d’autre qu’un contrôle fiscal déguisé.<script type="text/javascript"> jQuery("#footnote_plugin_tooltip_5532_1").tooltip({ tip: "#footnote_plugin_tooltip_text_5532_1", tipClass: "footnote_tooltip", effect: "fade", fadeOutSpeed: 100, predelay: 400, position: "top right", relative: true, offset: [10, 10] }); ?

La boîte de Pandore a été ouverte. En validant le principe de surveillance de masse des réseaux sociaux, le Conseil constitutionnel permet aux autres administrations de pouvoir réclamer leur part de surveillance généralisée, voire de se servir directement dans les données collectées par le fisc. Le ministre de l’action et des comptes publics, Gérald Darmanin, défend inlassablement cette nouvelle surveillance et promettait 10 millions d’euros par an pour seulement deux algorithmes. Son joujou désormais approuvé constitue un pas supplémentaire pour remplacer l’humain·e par la machine, le·la citoyen·ne par une ligne dans un tableur.

References   [ + ]

1. Le Conseil constitutionnel estime que l’obligation de « corroboration et enrichissement » exigée par la loi écarterait tout contrôle fiscal automatique. Pourtant, avec l’utilisation d’algorithmes auto-apprenants dont le résultat ne peut être reproduit et expliqué, cette opération ne sera rien d’autre qu’un contrôle fiscal déguisé.
<script type="text/javascript"> function footnote_expand_reference_container() { jQuery("#footnote_references_container").show(); jQuery("#footnote_reference_container_collapse_button").text("-"); } function footnote_collapse_reference_container() { jQuery("#footnote_references_container").hide(); jQuery("#footnote_reference_container_collapse_button").text("+"); } function footnote_expand_collapse_reference_container() { if (jQuery("#footnote_references_container").is(":hidden")) { footnote_expand_reference_container(); } else { footnote_collapse_reference_container(); } } function footnote_moveToAnchor(p_str_TargetID) { footnote_expand_reference_container(); var l_obj_Target = jQuery("#" + p_str_TargetID); if(l_obj_Target.length) { jQuery('html, body').animate({ scrollTop: l_obj_Target.offset().top - window.innerHeight/2 }, 1000); } }