PROJET AUTOBLOG


Framablog

source: Framablog

⇐ retour index

Khrys’presso du lundi 9 janvier 2023

lundi 9 janvier 2023 à 07:42

Comme chaque lundi, un coup d’œil dans le rétroviseur pour découvrir les informations que vous avez peut-être ratées la semaine dernière.


Tous les liens listés ci-dessous sont a priori accessibles librement. Si ce n’est pas le cas, pensez à activer votre bloqueur de javascript favori ou à passer en “mode lecture” (Firefox) ;-)

Brave New World

Spécial femmes dans le monde

Spécial France

Spécial femmes en France

Spécial médias et pouvoir

Spécial emmerdeurs irresponsables gérant comme des pieds (et à la néolibérale)

Spécial recul des droits et libertés, violences policières, montée de l’extrême-droite…

Spécial résistances

Spécial GAFAM et cie

Les autres lectures de la semaine

Les BDs/graphiques/photos de la semaine

Les vidéos/podcasts de la semaine

Les trucs chouettes de la semaine


Retrouvez les revues de web précédentes dans la catégorie Libre Veille du Framablog.

Les articles, commentaires et autres images qui composent ces « Khrys’presso » n’engagent que moi (Khrys).

L’aventure de la modération – épisode 3

jeudi 5 janvier 2023 à 08:27

Maiwann, membre de l’association, a publié sur son blog une série de cinq articles sur la modération. Nous les reproduisons ici pour leur donner (encore) plus de visibilité.

Voici le troisième.

Les cas d’étude c’est bien sympa, mais cela ne donne qu’une vision partielle du fonctionnement. Aussi je vais détailler ma montée en compétence sur la modération, et celle du collectif parce que ça fait partie des solutions à mettre en place pour que se soit un boulot le moins délétère possible !

 

Les outils accessibles via Mastodon

Mastodon permet, pour les utilisateurices inscrites chez nous de :
— flouter toutes les images de ce compte (et celles qu’il publiera ensuite) (pratique pour les instances qui hébergent du porno)
— supprimer un message
— limiter la visibilité du compte à ses abonnés seulement
— suspendre le compte sur un temps restreint
— supprimer le compte définitivement
— contacter l’utilisateurice par message privé
— contacter l’utilisateurice par mail
— bloquer un Mastodon entier ( ! !) (aussi appelé instance).

 

Pour les utilisateurices qui ne sont pas chez nous, il est seulement possible de :
— flouter toutes les images de ce compte (et celles qu’il publiera ensuite) (pratique pour les instances qui hébergent du porno)
— limiter la visibilité du compte à ses abonnés
— bloquer le compte
— contacter l’utilisateurice par message privé.

 

Lorsqu’une personne effectue un signalement, nous recevons une notification par mail si :
— la personne faisant le signalement se trouve chez nous
— la personne signalée est chez nous ET que la personne ayant fait le signalement a demandé explicitement à ce que nous le recevions.

 

Les signalements les plus importants à gérer étant évidemment ceux concernant des personnes se trouvant sur notre (instance de) Mastodon et ayant un comportement problématique. Actuellement, la majorité des signalements pour lesquels nous sommes notifiés sont faits par une personne inscrite chez nous à propos de contenus qui se trouvent ailleurs, sans doute pour prévenir les modérateurices de l’autre Mastodon qu’il y a quelque chose à regarder de leur coté.

 

Au fur et à mesure du temps, j’ai l’impression que si les signalements ne sont pas liés à du contenu chez nous, et ne sont pas explicitement problématiques, on peut laisser la responsabilité d’agir aux modérateurices des autres instances.

 

L’important étant de bien s’occuper de ce qui se trouve chez nous. :)

 

Pepper la sorcière et Carrot le chat dorment paisiblement contre un éléphant (un mastodonte) dans une jolie jungle.

My Neighbor Mastodon – CC-BY David Revoy

 

Comment ça se passe ?

Donc une fois la notification par mail reçue, on se connecte à un compte avec les droits de modération (pour certains leur compte personnel, pour d’autres le compte de modération que nous avons créé à la sortie de la charte pour avoir un compte dédié à ce sujet). Nous avons accès à une interface récapitulant le compte concerné, les contenus signalés, le message du signalement expliquant pourquoi il a été effectué (extrêmement important car sinon on perd énormément de temps à comprendre ce qui est reproché) et quelques autres indicateurs (notamment le nombre de signalements déjà effectués, pratique pour repérer les récidivistes).

 

Démarre ensuite dans la grande majorité des cas un travail d’enquête afin de comprendre le contexte. C’est une action extrêmement chronophage mais qui nous permet de savoir si la personne a une façon de se comporter correcte, un peu pénible ou carrément problématique, ce qui va influencer le niveau de sévérité de l’action de modération.

 

Si nous avons de la chance, il suffit de parcourir une dizaine de contenus, mais parfois la personne a partagé des vidéos, et il est nécessaire de regarder l’entièreté de la vidéo pour se rendre compte de son caractère problématique… ou non. C’est comme cela que je me suis retrouvée à regarder vingt minutes d’une vidéo célébrant le Brexit où se trouvaient Asselineau, Nicolas Dupont-Aignan, Florian Philippot. Quel excellent moment.

 

C’est ce travail de contextualisation qui explique pourquoi il est extrêmement important, lorsque vous réalisez un signalement, de mettre le plus de détails possibles : quels sont les contenus incriminés ? Pourquoi pensez-vous que cela mérite une action de modération ? Trop souvent nous avons un signalement composé d’un seul pouet, hors contexte, qui nous oblige à nous y attarder bien plus que si on nous avait fourni des explications détaillées. (Merci pour nous !)

 

Une fois cette contextualisation réalisée, il est temps de se décider… est-ce qu’il y a quelque chose à faire ? Est-ce qu’on supprime les contenus incriminés ? Est-ce qu’on contacte la personne ?

 

À Framasoft nous avons un tchat dédié à la modération, dans lequel nous partageons notre analyse du contexte, le signalement, et nous proposons l’action ou les actions qui nous semblent les plus appropriées. L’idée est de pré-mâcher le travail aux copaines tout en n’ayant pas à porter seul le poids de la décision de la « bonne » action de modération à réaliser.

 

Donc une fois que j’ai une idée de ce qui me semblerait « le mieux » à faire (ou pas), je demande leur avis aux copaines sur ce tchat. Il y a ensuite un petit temps d’attente nécessaire, pas problématique dans la plupart des cas mais très stressant quand la situation revêt un caractère « d’urgence », et que quelques heures comptent (par exemple si quelqu’un commence à se prendre une vague de harcèlement, plus vite on peut la protéger mieux c’est).

 

Si on n’est pas d’accord, on discute, jusqu’à tomber d’accord ou ne pas tomber d’accord et utiliser la règle du « c’est qui qui fait qui décide ». Donc si on se dit « cette personne il faudrait la contacter pour lui expliquer » mais que personne n’a l’énergie de rédiger quelque chose… ben on fait différemment en choisissant une action qui tient compte du niveau d’énergie des modérateurices.

 

Et enfin, on réalise l’action de modération « finale » qui, si elle est technique, est hyper rapide (nonobstant un petit message pour prévenir si on a envie d’en faire un), mais qui si elle est dans la « communication » n’est que le début du chemin !

 

J’espère que cela vous permet de davantage mesurer l’effort invisible qu’est la modération : Recevoir la notification, Identifier le niveau d’urgence, Contextualiser, Synthétiser, Trouver une décision juste, la Soumettre au collectif, Attendre les retours, Discuter, Agir, peut-être Répondre… 9 à 10 étapes qui ne sont vues de personne, excepté si les contenus ou le compte sont purement et simplement supprimés. Il est donc très facile de dire que « rien » n’est fait alors que ça s’active en coulisses.

 

De plus, dans un monde où tout et n’importe quoi est « urgent » autant vous dire que ça n’est pas facile de prendre le temps de décider sereinement d’une action la plus juste possible alors que précisément, cela demande du temps de ne pas réagir sur le coup de l’émotion !

 

L’anonymat des modérateurices

 

Lorsque j’ai débuté la modération, j’avais dans l’idée qu’il était important que les modérateurices soient clairement identifié·es pour qu’il soit plus simple de savoir d’où iels parlent. Non seulement pour savoir si iels sont directement concerné·es par certaines oppressions systémiques, mais aussi pour pouvoir avoir un œil sur leur niveau de déconstruction (ce n’est pas parce qu’on est une meuf et donc qu’on subit le sexisme que cela nous donne un badge « a déconstruit le patriarcat », loin de là).

 

J’en suis complètement revenue, ou plutôt j’ai bougé sur ma position : ce ne sont pas les individus qu’il faut connaitre, mais la position d’un collectif, et savoir si on a envie de faire confiance à ce collectif… ou non !

 

Pourquoi ce changement ? Déjà parce que lors de la vague de harcèlement que nous avons subie à la publication de la charte, la violence était très intense alors que je n’étais pas directement citée : c’était le compte de l’association (@Framasoft@framapiaf.org) qui l’était, et je ne voyais que ce qui tombait dans mon fil ou ce que j’allais voir de moi-même (enfin en étant sous le coup de la sidération, moment où l’on a pas toujours les bonnes pratiques : maintenant je ferme l’ordinateur pour m’éloigner du flot).

 

Si j’étais frustrée de ne pas pouvoir mettre de visage « humain » sur les personnes qui avaient écrit cette charte, j’ai surtout été très protégée par mon anonymat du moment. Et j’ai pu choisir, en mes termes et dans un timing que j’ai choisi, de partager mon ressenti sur la situation (avec l’article intitulé Dramasoft du nom du hashtag utilisé pour l’occasion).

 

Et je me souviens que je savais très clairement que je prenais un grand risque en communiquant sur ma participation à cette charte (et j’ai fait attention à ne pas parler des actions de modération en tant que telle dans un espoir de limiter l’impact). Le fait d’en contrôler la totalité de la publication, quand, sur quel support, auprès de qui, quand je me suis sentie prête, m’a énormément protégée.

 

Je reviens d’ailleurs sur une partie de ce que j’ai énoncé au-dessus, l’importance de

savoir si iels [les modérateurices] sont directement concerné·es par certaines oppressions systémiques

 

Je pense à présent qu’il est très problématique de penser pouvoir regarder un·e individu pour se permettre de juger de si iel ferait un·e bon·ne modérateurice : ce sont les actions et la direction dans laquelle se dirige le collectif qui compte. Nous ne pouvons pas déterminer, de par quelques pouets ou contenus partagés, si une personne est « suffisamment » déconstruite ou non.

 

Pire, cela nous encourage à faire des raccourcis, qui peuvent être d’une violence inouïe. Aussi, il nous a par exemple été reproché de concevoir une charte pour des enjeux de modération dont nous n’avions pas conscience, notamment parce que nous n’avions pas de personnes concerné·es par les oppressions systémiques dans l’équipe (qui seraient composés de mecs cis, het, blancs…).

Déjà c’est faux, car il y a des femmes qui subissent le sexisme qui en font partie (dont moi par exemple !) mais surtout parce qu’il n’est pas possible de savoir quel est le contexte et l’identité de chacun·e des membres, et notamment si certain·es seraient par exemple dans le placard, cachant soigneusement leur identité ou orientation sexuelle.

Rendez-vous compte de la violence, pour quelqu’un qui n’a pas fait son ou ses coming-out, de recevoir de la part d’adelphes qui sont dans le même groupe oppressé qu’elle un message sous entendant qu’elles ne sont pas légitimes puisqu’elles ne sont pas out. La violence est infinie, et je crois que c’est ce qui m’a mise le plus en colère dans cette histoire, car je ne pouvais pas vérifier si des membres étaient touché·es par ces accusations (puisque n’ayant pas fait leur coming-out… vous m’avez comprise).

 

Aussi, à nouveau, je pense que la solution repose sur le collectif, pour pouvoir à la fois s’adresser à quelqu’un tout en protégeant les individus.

À Framasoft, nous avons publié cette charte et ouvert un compte modération derrière lequel chaque membre peut lire les messages, et nous agissons pour des personnes qui nous font confiance. Plus récemment encore, nous avons re-partagé notre vision du monde dans notre manifeste, sans compter les nombreuses conférences et articles de blog qui expliquent comment nous nous positionnons. Si cela ne suffit pas aux utilisateurices, ils peuvent nous bloquer ou aller ailleurs, sans animosité de notre part : nous faisons avec nos petits moyens.

 

Le temps passé

 

Une question qui m’a été souvent posée c’est : Combien de temps vous y passez, à faire de la modération ?

 

Alors déjà il y a une grosse différence de temps passé entre le moment de mise en place de la charte de modération, et maintenant.

 

Lors de la mise en place de la charte et environ un an ensuite, nous étions sur quelques heures par semaine. Actuellement, c’est plutôt quelques heures par mois, et pour des cas moins complexes à gérer (même si on n’est pas à l’abri d’une vague de harcèlement !). Et c’est à mettre au regard du nombre : 1600 utilisateurs actifs chez nous, 11 000 inscrit·es (donc beaucoup de comptes en veille) et 6 millions d’utilisateurs au total sur tout le réseau.

 

Cette immense différence s’expliquer par deux raisons :
– Nous avons viré tous les relous.
– Nous avons fermé les inscriptions, et donc il n’y a plus de nouveaux.

 

Les utilisateurices qui restent sur framapiaf sont celleux qui ne nous demandent pas trop de boulot, et donc on s’en sort bien !

 

Mais je pense que même sur une instance dont les inscriptions restent ouvertes, on doit gagner en tranquillité grâce aux blocages d’instances déjà effectués et à la montée en compétence de l’équipe de modération (si l’équilibre est entretenu pour que les modérateurices restent, ça veut dire que le collectif en prend suffisamment soin !).

 

Note : Si les chiffres d’Olivier Tesquet sont bons (je n’ai pas vérifié), il y a en fait sur Mastodon une bien meilleure façon de modérer que sur Twitter parce que les modérateurices seraient juste… plus nombreuxses ?

 

Mastodon compte aujourd’hui 3615 instances, c’est à dire 3615 politiques de modération potentiellement différentes.
Au passage, ramené au nombre d’utilisateurs actifs, ça fait au moins un modérateur pour 250 mastonautes. Sur Twitter, c’est un pour… 200 000.

Et après ?

C’est l’heure de faire un petit bilan de cette triplette d’articles ! Ce sera dans le prochain épisode !

Khrys’presso du lundi 2 janvier 2023

lundi 2 janvier 2023 à 07:42

Comme chaque lundi, un coup d’œil dans le rétroviseur pour découvrir les informations que vous avez peut-être ratées la semaine dernière.


Tous les liens listés ci-dessous sont a priori accessibles librement. Si ce n’est pas le cas, pensez à activer votre bloqueur de javascript favori ou à passer en “mode lecture” (Firefox) ;-)

Brave New World

Spécial femmes dans le monde

RIP

Spécial France

Spécial femmes en France

Spécial médias et pouvoir

Spécial emmerdeurs irresponsables gérant comme des pieds (et à la néolibérale)

Spécial recul des droits et libertés, violences policières, montée de l’extrême-droite…

Spécial résistances

Les autres lectures de la semaine

Les BDs/graphiques/photos de la semaine

Les vidéos/podcasts de la semaine


Retrouvez les revues de web précédentes dans la catégorie Libre Veille du Framablog.

Les articles, commentaires et autres images qui composent ces « Khrys’presso » n’engagent que moi (Khrys).

L’aventure de la modération – épisode 2

vendredi 30 décembre 2022 à 08:11

Maiwann, membre de l’association, a publié sur son blog une série de cinq articles sur la modération. Nous les reproduisons ici pour leur donner (encore) plus de visibilité.

Voici le deuxième.

Maintenant que je vous ai fait une introduction de six pages, c’est le moment de passer au concret : Comment est-ce que se déroule la modération ?

Les cas simples : les fachos, les mascus, l’extrême-droite

De façon surprenante, j’ai découvert que tout ce qu’il y a de plus délétère sur les réseaux sociaux capitalistes, c’est à dire en résumé : les comptes d’extrême-droite, étaient très simples à modérer.

Nous en avons eu un exemple lors de l’été 2018. Twitter a réalisé une vague de fermeture de comptes de mascus provenant du forum tristement connu de jeuxvideo.com, surnommé le 18-25. Comme souvent, ces personnes crient à la censure (…) et cherchent un réseau social alternatif dont la promesse serait de promouvoir une liberté d’expression leur permettant de dire les atrocités qu’ils souhaitent.

 

Pepper la sorcière et Carrot le chat dorment paisiblement contre un éléphant (un mastodonte) dans une jolie jungle.

My Neighbor Mastodon – CC-BY David Revoy

 

 

Ils débarquent donc sur Mastodon, avec un schéma qui a été le suivant :

1° Première inscription sur le premier Mastodon trouvé

Les 18-25 étant majoritairement francophones, ils se sont retrouvés souvent sur mamot.fr et parfois chez nous en s’inscrivant sur framapiaf.org, parfois sur mastodon.social qui est le Mastodon proposé par le développeur principal.

Nous avons donc pu commencer une première vague de bannissement en suivant les profils des nouveaux inscrits, et leurs premiers contenus qui concourraient au prix de « qui dit les choses les plus atroces ».

Nous avons fermé les inscriptions momentanément pour endiguer le flot, et peut-être avons nous à un moment viré massivement les nouveaux comptes.

 

« Quoi ? ! » vous entends-je dire, « mais c’est en opposition totale avec le point 3 de la charte » !

 

Nous différencions personnes et comportements. Nous modérerons les comportements enfreignant notre code de conduite comme indiqué au point 5, mais nous ne bannirons pas les personnes sous prétexte de leurs opinions sur d’autres médias.

Ma réponse est donc « vous avez raison » suivie d’un « et nous sommes humains donc nous faisons ce que nous pouvons, en commençant par nous protéger ».

Je ne me souviens pas vraiment de notre façon de modérer à ce moment là : avons-nous attendu que chacun poste quelque chose de problématique avant de le virer ? Ou avons-nous agi de façon plus expéditive ? Même si nous étions dans le second cas, nous étions sur un grand nombre de compte qui venaient de façon groupée pour revendiquer une « liberté d’expression » leur permettant de dire des horreurs… Il n’y a à mon avis pas besoin d’attendre que chacune de ces personnes indique quel est sa façon de penser alors qu’elles viennent massivement d’un endroit (le forum de jeuxvideo.com) qui porte une vision de la société délétère.

 

Donc peut-être qu’on n’a pas respecté strictement la charte sur ce moment là, et encore une fois, je préfère protéger les membres de l’association et les utilisateurices en faisant preuve d’un peu d’arbitraire, plutôt que de suivre une ligne rigide.

 

2° S’inscrire sur un autre Mastodon

Après leur premier bannissement, des informations sur le fonctionnement décentralisé de Mastodon ont circulé. Les nouveaux arrivants se sont donc inscrits sur une autre instance, et ont plus ou moins rapidement été bannis une nouvelle fois.

 

C’est alors que des personnes du fédiverse ont expliqué à ces personnes qui se plaignaient de la fameuse « censure » qu’ils pouvaient monter leur propre Mastodon, et y appliquer leurs propres règles.

 

3° Monter une instance Mastodon rien que pour les 18-25

Sitôt dit, sitôt fait, les nouveaux arrivants s’organisent, montent leur Mastodon (soit grâce à leurs compétences techniques, soit grâce à un service qui propose de le faire) et s’y inscrivent tous.

 

Victoire ! Leur instance Mastodon, leurs règles, plus personne ne les bannira !

 

Quand à nous, nous n’avions plus qu’à appuyer sur le bouton « Bloquer l’instance » pour nous couper de ce Mastodon dédié au 18-25. Problème réglé.

 

Alors je ne voudrais pas vous faire croire que cette cohue s’est faite sans effet problématique. Déjà parce que je ne connais pas ses effets sur tous les utilisateurices de Mastodon, mais aussi parce que les 18-25 ont eu le temps de poster des contenus très violents, le point culminant étant une photo de la salle du Bataclan le soir du 13 novembre, remplie de cadavres. Je n’ai pas vu cette image mais un ami de l’association oui, et je maudis notre manque d’expérience pour ne pas avoir pu empêcher qu’il soit confronté à cette image horrible.

 

Mais de façon générale, tous les discours de haine sont vraiment aisés à modérer. Juste : Ça dégage. Fin de la discussion.

 

Là où ça devient difficile, se sont sur les cas qui jouent avec les limites.

 

Cas limites : quand une personne est… pénible

Je pense que c’est ce type de cas qui nous a valu une réputation de « mauvaise modération » : certaines personnes qui ne posaient pas de problème légaux, n’étaient pas agressifs au sens strict du terme ou ne partageaient pas de contenu violent, mais qui étaient… relous.

 

Un peu de mansplanning par ci, une discussion sur un sujet d’actualité avec une position moralisante par là… Bref, tout ce qui fait plaisir à lire (non) sans réellement mériter de couperet de la part de la modération.

 

Nous sommes arrivés à un point où les salariés qui faisaient de la modération avaient masqué le compte depuis leur profil personnel, mais ne se sentaient pas légitimes à le virer de notre Mastodon puisque rien de suffisamment répréhensible n’avait été fait.

 

Maintenant que j’ai un peu de recul, je peux dire que nous avons deux postures possibles dans ce cas, chacune nécessitant un travail de contextualisation lié au compte : quelle description du compte ? Quels contenus partagés ? Dans quelle ambiance est la personne ? Ça n’est pas la même chose si la personne écrit dans sa biographie « Mec cis-het et je vous emmerde » que si il est écrit « Faisons attention les un·es aux autres ».

Bien sûr, rien n’est strictement « éliminatoire », mais chaque élément constitue un faisceau d’indices qui nous pousse nous-même à passer plus ou moins de temps à prendre soin de la personne, de façon équivalente au soin que cette personne semble mettre dans ces échanges sur le média social.

 

Si la personne semble globalement prendre soin, mais a été signalée, nous pouvons décider de rentrer en discussion avec elle. C’est une option intensément chronophage. On pourrait se dire que pour trois messages de 500 caractères, pas besoin d’y passer trop de temps… au contraire !

Autant que possible, chaque message est co-écrit, relu, co-validé avant d’être envoyé, afin de s’assurer que le plus de personnes possibles de l’équipe de modération soient en accord avec ce qui y est écrit, le ton donné… et cela dans un temps le plus réduit possible histoire que l’action de modération ne date pas de quinze jours après le contenu (c’est parfois ce qui arrive). Or les membres de l’équipe sont pour beaucoup bénévoles, ou sinon salarié⋅es avec un emploi du temps très chargé.

Il faut aussi pas mal de relecteurices pour éviter LE truc qui fait perdre trois fois plus de temps : se faire mal comprendre par la personne à laquelle on écrit. Et là… c’est le drame !

 

Une autre option, ressemblant à celle-là mais avec moins de précautions de notre part est d’utiliser notre position d’autorité « Nous sommes la Modération » pour signaler aux personnes que nous comptons sévir en cas de récidive.

 

Cependant, si la personne ne semble pas intéressée par le fait de prendre soin des autres personnes, nous avons une astuce pour ne pas retomber dans le cycle infernal du « est-ce qu’on devrait faire quelque chose ou non ? » : le « ça prend trop d’énergie à l’équipe de modération ».

 

Cependant, nous bannirons toute personne ayant mobilisé de façon répétée nos équipes de modération : nous voulons échanger avec les gens capables de comprendre et respecter notre charte de modération.

En effet, c’est un indicateur qui nous permet de ne pas « boucler » trop… si l’on est plusieurs à se prendre la tête sur un signalement, alors que notre énergie serait mieux ailleurs… alors on décide souvent que cela suffit pour mériter un petit message disant en gros « Bonjour, vous prenez trop de temps à l’équipe de modération, merci d’aller vous installer ailleurs ». Cela nous a sorti de maintes situations délicates et c’est une félicité sans cesse renouvelée que de pouvoir citer cette partie de la charte.

 

Cas limites : quand la revendication est légitime

Autre cas compliqué à gérer : les différents moments où les personnes ont une revendication dont le fond est légitime, mais où la forme fait crisser les dents.

 

Par exemple, revenons sur la réputation de Framapiaf d’avoir une mauvaise modération (ou une absence de modération ce qui revient au même).

 

Clarifions un instant les reproches qui me semblent étayées de celles pour lesquelles je n’ai pas eu de « preuve » :

— Il a été dit que nous ne faisions pas de modération, voire que nous ne lisions pas les signalements : c’est faux.

— Par contre, comme expliqué dans le cas au-dessus, nous n’étions pas outillés et expérimentés pour gérer des cas « limites » comme ceux au-dessus qui ont entraine une pénibilité dans les interactions avec de nombreuxses utilisateurices.

 

Nous avions donc bien un manque dans notre façon de faire de la modération. Si vous avez déjà les explications du « pourquoi », je tiens à dire que cela ne nous empêche pas de nous rendre compte que cela a été pénible pour d’autres utilisateurices.

 

Cependant, la façon dont le problème nous a été remonté l’a été de façon souvent agressive, parfois violente car insinuant des choses à propos de nos membres (qui ne seraient que des personnes non concernées par les oppressions… et c’est faux !).

 

Aussi, comment traiter ce sujet, qui porte des valeurs avec lesquelles nous sommes aligné·es (protéger les personnes des relous, facile d’être pour…) mais qui dans le même temps, nous agresse également ? Et comment faire cela sans tomber dans le tone policing, argument bien trop utilisé pour couper court à un débat en tablant sur la forme plutôt que le fond ?

 

Tone-policing : littéralement « modération du ton ». Comportement visant à policer une discussion ou un débat en restreignant ou en critiquant les messages agressifs ou empreints d’une forte charge émotionnelle.

 

Voici mon point de vue : au vu de notre petite taille, nos faibles capacités humaines (des salariés qui font mille choses, des bénévoles), que notre structure est à but non lucratif (donc n’est pas là pour faire du bénéfice pour enrichir quelqu’un) et notre posture d’écoute que nous essayons d’équilibrer avec notre énergie disponible, il n’est pas OK de mal nous parler sauf cas exceptionnel.

Alors bien sûr les cas exceptionnels, ça se discute, ça se débat, mais en gros, à part si nous avons sérieusement blessé quelqu’un de par nos actions, il est possible de nous faire des critiques calmement, sans faire preuve de violence.

 

Et dans un souci d’équité, nous faisons l’effort de creuser les arguments de fond quand bien même la forme ne nous plait pas, afin de vérifier si les reproches que nos recevons sont des critiques avec de la valeur et de l’agressivité, ou seulement de l’agressivité.

 

Cela peut vous sembler étrange de passer du temps là-dessus, mais tant que vous n’êtes pas dans l’association, vous ne vous rendez pas compte de la quantité de gens qui la critiquent. Chaque semaine, des personnes nous signalent par exemple qu’elles sont désespérées par notre utilisation de l’écriture inclusive alors que nous l’utilisons depuis plus de quatre ans. Ou régulièrement parce que nous sommes trop politiques. Alors oui, des reproches agressifs nous en avons régulièrement, mais des critiques constructives, c’est malheureusement bien plus rare.

 

Donc que faire face à cela ? Eh bien mettre le soin au centre pour les personnes qui reçoivent les agressions. Alors encore une fois, je ne parle pas de soutenir les méchants oppresseurs agressifs envers qui on serait en colère, il ne s’agit pas de ça. Il s’agit de réussir à voir chez une personne de notre archipel qu’elle a fait une erreur, tout en prenant soin de l’humain qui a fait cette erreur.

 

Nous voulons prendre soin : de nous, d’autrui, et des Communs qui nous relient

 

Parce que personnellement j’ai vu que se faire agresser alors que l’on fait honnêtement de son mieux n’entraine qu’un repli sur soi, coupant la personne de son désir de contribuer à un monde meilleur, parce qu’elle a été trop blessée.

 

Et bien sûr, l’équilibre entre protéger les personnes blessées et celles qui blessent sans le vouloir est extrêmement difficile à tenir. Il faut donc réussir à faire preuve de franchise : oui, là, tu ou on aurait pu faire mieux. À partir de maintenant, comment on fait pour que se soit possible de faire mieux ?

 

Inutile de dire que non seulement ça prend du temps, mais c’est aussi carrément risqué, car on peut se mettre à dos par effet domino tout le groupe dont les membres exprimaient directement cette agressivité, ou indirectement par du soutien aux contenus en questions. Que du bonheur !

 

Les autres cas…

 

Alors oui il y a des robots, mais ça c’est un peu pénible mais vite résolu.

 

Il y a aussi des spécificités liées à Mastodon : comment gérer des contenus qui sont sur un autre Mastodon, auquel vous êtes connectés, et qui sont illégaux dans votre pays mais légaux dans d’autres ? On prend souvent l’exemple dans ce cas du lolicon : les dessins « érotiques » représentant des mineures sont autorisés et courants au Japon, mais interdits en France. Il faut y penser !

 

Enfin un autre cas que vous avez en tête est peut-être le contenu pornographique. Nous n’en faisons pas grand cas ici : nous demandons à ces comptes de masquer par défaut leurs images (une fonctionnalité de Mastodon qui permet de publier la photo floutée et de la rendre nette sur simple clic) et idéalement de rajouter un #NSFW (Not Safe for Work) pour simplifier leur identification.

 

La suite

 

J’espère que ces cas un peu concrets vous permettent de mieux vous rendre compte des interstices qui complexifient le travail de modération. Mais du coté fonctionnement collectif, comment ça se passe ? Je vous raconte ça dans l’article numéro 3 la semaine prochaine.

Khrys’presso du lundi 26 décembre 2022

lundi 26 décembre 2022 à 07:42

Comme chaque lundi, un coup d’œil dans le rétroviseur pour découvrir les informations que vous avez peut-être ratées la semaine dernière.


Tous les liens listés ci-dessous sont a priori accessibles librement. Si ce n’est pas le cas, pensez à activer votre bloqueur de javascript favori ou à passer en “mode lecture” (Firefox) ;-)

Brave New World

Spécial femmes dans le monde

Spécial France

Spécial femmes en France

Spécial médias et pouvoir

Spécial faut arrêter avec le culte de Jancovici

Spécial emmerdeurs irresponsables gérant comme des pieds (et à la néolibérale)

Spécial recul des droits et libertés, violences policières, montée de l’extrême-droite…

Spécial résistances

Spécial GAFAM et cie

Spécial Musk et Twitter

Les autres lectures de la semaine

Les BDs/graphiques/photos de la semaine

Les vidéos/podcasts de la semaine

Les trucs chouettes de la semaine


Retrouvez les revues de web précédentes dans la catégorie Libre Veille du Framablog.

Les articles, commentaires et autres images qui composent ces « Khrys’presso » n’engagent que moi (Khrys).