PROJET AUTOBLOG


Framablog

source: Framablog

⇐ retour index

Mise à jour

Mise à jour de la base de données, veuillez patienter...

Khrys’presso du lundi 30 janvier 2023

lundi 30 janvier 2023 à 07:42

Comme chaque lundi, un coup d’œil dans le rétroviseur pour découvrir les informations que vous avez peut-être ratées la semaine dernière.


Tous les liens listés ci-dessous sont a priori accessibles librement. Si ce n’est pas le cas, pensez à activer votre bloqueur de javascript favori ou à passer en “mode lecture” (Firefox) ;-)

Brave New World

Spécial femmes dans le monde

Spécial France

Spécial femmes en France

Spécial médias et pouvoir

Spécial emmerdeurs irresponsables gérant comme des pieds (et à la néolibérale)

Spécial recul des droits et libertés, violences policières, montée de l’extrême-droite…

Spécial résistances

Spécial GAFAM et cie

Les autres lectures de la semaine

Les BDs/graphiques/photos de la semaine

Les vidéos/podcasts de la semaine

Les trucs chouettes de la semaine


Retrouvez les revues de web précédentes dans la catégorie Libre Veille du Framablog.

Les articles, commentaires et autres images qui composent ces « Khrys’presso » n’engagent que moi (Khrys).

Khrys’presso du lundi 23 janvier 2023

lundi 23 janvier 2023 à 07:42

Comme chaque lundi, un coup d’œil dans le rétroviseur pour découvrir les informations que vous avez peut-être ratées la semaine dernière.


Tous les liens listés ci-dessous sont a priori accessibles librement. Si ce n’est pas le cas, pensez à activer votre bloqueur de javascript favori ou à passer en “mode lecture” (Firefox) ;-)

Brave New World

Spécial femmes dans le monde

Spécial France

Spécial femmes en France

Spécial médias et pouvoir

Spécial emmerdeurs irresponsables gérant comme des pieds (et à la néolibérale)

Spécial idée à la con

Spécial recul des droits et libertés, violences policières, montée de l’extrême-droite…

Spécial résistances

Spécial GAFAM et cie

Les autres lectures de la semaine

Les BDs/graphiques/photos de la semaine

Les vidéos/podcasts de la semaine

Les trucs chouettes de la semaine


Retrouvez les revues de web précédentes dans la catégorie Libre Veille du Framablog.

Les articles, commentaires et autres images qui composent ces « Khrys’presso » n’engagent que moi (Khrys).

L’aventure de la modération – épisode 5 (et dernier ?)

jeudi 19 janvier 2023 à 08:36

Maiwann, membre de l’association, a publié sur son blog une série de cinq articles sur la modération. Nous les reproduisons ici pour leur donner (encore) plus de visibilité.

Voici le cinquième. Le dernier, pour l’instant.

Si vous avez raté les articles précédents, vous pouvez les retrouver par ici :
– Chapitre 1 : Un contexte compliqué
– Chapitre 2 : La découverte de la modération
– Chapitre 3 : La pratique de la modération
– Chapitre 4 : Bilan

 

Pour conclure cette série de textes sur la modération, et maintenant que j’ai grandement détaillé comment il est possible, sur Mastodon, d’avoir une modération qui fait le taf, je voulais revenir sur pourquoi, à mon avis, il est impossible pour les grandes entreprises capitalistes de faire correctement de la modération (et pourquoi ça ne sert à rien de leur demander de faire mieux !).

 

C’est le cœur de cette série car je suis très frustrée de voir systématiquement une bonne analyse faite sur les problèmes des outils, qui se casse la figure au moment d’évoquer les solutions. Alors c’est parti !

 

N.B. : je fais cette analyse sans considérer qui est le PDG au moment où je publie car je pense que ça ne change pas grand chose sur le fond, au pire le nouveau sera plus transparent sur sa (non-)politique de modération.

 

Twitter ne fera pas mieux car…

Twitter ne veut pas dépenser d’argent pour construire des équipes de modération

 

Vous le savez sans doute, c’est passé dans de nombreux articles comme celui de Numérama : Twitter assume n’avoir quasiment pas de modérateurs humains

Twitter emploie 1 867 modérateurs dans le monde.

 

Pour 400 millions d’utilisateurices, ça fait 1 modérateurice pour 200 000 comptes. Donc évidemment la modération ne peut pas être suffisante et encore, on ne sait pas comment les effectifs de modération sont répartis selon les langues. Il est évident qu’il est extrêmement difficile de modérer, alors modérer dans une langue qu’on ne maitrise pas c’est mission impossible !

 

Je rajoute rapidement qu’en plus, contrairement à ce que j’évoquais dans mes articles précédents sur « comment prendre soin » et construire un collectif de modération, il n’y a absolument aucune notion de soin et de collectif lorsque l’on est modérateurice chez Twitter. Il y a au contraire des conditions de travail délétères qui amplifient le problème : interdiction de parler à ses collègues, de raconter à l’extérieur ce à quoi on a été confronté, pression temporelle intense donc pas possible de récupérer après un moment violent.

 

Bref, Twitter veut économiser de l’argent, et le fait notamment sur le dos de ses modérateurices qui sont envoyées au massacre psychologique de la modération, et donc au détriment de ses utilisateurices les plus fragiles.

 

 

Pepper la sorcière et Carrot le chat dorment paisiblement contre un éléphant (un mastodonte) dans une jolie jungle.

My Neighbor Mastodon – CC-BY David Revoy

Twitter préfère les robots

Face aux critiques qui lui sont faites, Twitter répond qu’il compte sur l’automatisation des robots pour faire ce travail pénible.

Je pense que cette posture ne tient pas pour plusieurs raisons :
1. C’est technosolutionniste que de penser que des robots peuvent répondre à un problème social (et donc à mon avis voué à l’échec).

2. Les robots sont alimentés par ce que nous leur donnons, et donc remplis de biais qu’ils vont répercuter dans leur politique de modération. Dans un collectif de modérateurices, ces biais sont atténués par les débats et discussions. Je ne crois pas que les robots soient très portés sur la discussion de ce qui est juste ou non.

3. Le contexte est primordial en modération, et un robot ne peut pas être assez « intelligent » pour comprendre ce contexte. Pour exactement le même contenu, selon d’où parle la personne, la réponse de modération ne sera pas la même. Vous imaginez bien qu’entre une femme qui dit subir du sexisme ou un homme, on n’est pas sur la même action à réaliser, l’une subit une oppression systémique tandis que l’autre récupère maladroitement ou stratégiquement un mot en le détournant.

 

Les robots ne sont donc pas une solution sur laquelle on peut compter, mais sont une bonne façon de détourner la discussion du sujet « Pourquoi n’avez-vous pas plus de modérateurices ? ». Il vaut mieux répondre « Le boulot est trop ingrat, on préfère que se soit des robots, on les améliore chaque jour » plutôt que « on ne veut pas mettre d’argent à payer des modérateurices et puis quoi encore ? ». (Quoique en ce moment, il y a une bonne clarification des postes considérés comme utiles chez Twitter, et la modération n’en fait pas partie !).

 

On pourra me dire : « oui mais un robot, c’est fiable car ça prend toujours les mêmes décisions ! »

Et c’est peut-être vrai, mais pourquoi avons-nous besoin d’une modération qui ne bouge pas dans le temps ? Comment s’améliorer, comment faire évoluer nos pratiques si toute la connaissance est refilée aux robots ?

 

Nous avons besoin de remettre de l’humain dans nos médias sociaux, et déléguer aux robots ne fait que contourner le problème.

 

Twitter a besoin que les gens soient blessés

 

Enfin, de par le fonctionnement même de Twitter, le réseau social a besoin pour son modèle économique de gens qui souffrent, qui sont malheureux, blessés, en colère, pour gagner plus d’argent.

 

C’est le principe de l’économie de l’attention : plus vous restez sur un média social, plus vous partagez vos données, regardez des pubs, interagissez et faites rester les autres.

 

Et pour vous faire rester, rien de tel que de vous confronter à ce qui vous énerve, ce qui vous fait vous sentir mal, ce qui vous fait réagir.

 

Pour cela, les comptes d’extrême-droite sont de l’or en barre : ils passent leur temps à dire des saloperies, et à un moment l’une d’elle va forcément vous toucher plus particulièrement qu’une autre, soit parce que vous êtes concerné·e, soit parce que quelqu’un de votre entourage l’est.

 

Ensuite on cite le tweet concerné en disant qu’il faut surtout pas écouter ce genre de personne, on déconstruit l’argumentaire en un fil de huit tweets, tout cela augmente la visibilité du contenu initial et donc d’idées d’extrême-droite, personne n’a changé d’avis à la fin mais vous vous sentez sans doute encore moins bien qu’au début, ou plus énervé·e… et chouette pour Twitter, parce qu’être en colère ou triste ça rend davantage sensible à la publicité.

 

Vous l’aurez compris, il y a donc par nature un problème de fond : si Twitter vire tous les comptes d’extrême-droite, son chiffre d’affaire va chuter. Alors il peut promettre la main sur le cœur qu’il compte le faire, les yeux dans les yeux, et vous avez le droit de le croire.

 

Pour moi les résultats sont là, rien ne se passe, et il n’y a pas de raison que ça s’arrange avec le temps (au contraire !).

 

Oui mais… et la violence à laquelle sont soumis les modérateurices dans tout ça ?

 

Les entreprises capitalistes du numérique entretiennent savamment la croyance que puisqu’il y a de la violence dans le monde, il n’y a rien à faire, quelqu’un doit bien se farcir le taf ingrat de subir cette violence transposée sur les réseaux sociaux, et ces personnes, ce sont les modérateurices.

 

Je ne suis pas d’accord.

 

Je pense que nous pouvons collectivement améliorer de beaucoup la situation en priorisant des technologies qui prennent soin des humains, et qu’il est immoral de perpétuellement déléguer le travail de soin (des enfants, de la maison, des espaces en ligne) à des personnes qui sont toujours plus mal payées, plus précaires, plus minorées, à l’autre bout du monde…

 

Nous pouvons avoir des réseaux qui fonctionnent correctement, mes articles sur Mastodon en font l’exemple.

 

Est-ce que c’est parfait ? Non, mais au moins, la modération est gérée à petite échelle, sans la déléguer à des personnes inconnues qu’on rémunère de façon honteuse pour faire le « sale travail » en leur détruisant la santé.

 

Et si à terme Mastodon grossit tellement qu’il sera soumis aux contenus les plus atroces, et que cela rendra la modération impossible ou complètement délétère pour les modérateurices, eh bien il sera temps de l’améliorer ou de tout fermer. Parce que nous pouvons aussi faire le choix de ne pas utiliser un outil qui abime certain·es d’entre nous plutôt que de fermer les yeux sur cette violence.

 

Peut-être que le fonctionnement fondamental des réseaux sociaux a finalement des effets délétères intrinsèques, mais pourquoi se limiter à ça ? Pourquoi ne pas discuter collectivement de comment faire mieux ?

 

Et sur un autre registre, il est aussi possible de mettre de l’énergie en dehors de la technologie, sur un retour à plus de démocratie, plus de débat apaisé. Parce que peut-être que si chacun·e retrouve une confiance sur le fait que son avis et ses besoins seront entendus, il sera possible de retrouver collectivement plus de sérénité, et cela se ressentira sûrement dans nos interactions numériques.

 

Un autre monde (numérique) est possible, il nous reste à le construire, pour contribuer à une société empreinte de justice sociale où le numérique permet aux humain·es de s’émanciper, à contre-courant des imaginaires du capitalisme (de surveillance).

 

« Mastodon, c’est chouette » sur Grise Bouille, par @gee@framapiaf.org
https://grisebouille.net/mastodon-cest-chouette

Khrys’presso du lundi 16 janvier 2023

lundi 16 janvier 2023 à 07:42

Comme chaque lundi, un coup d’œil dans le rétroviseur pour découvrir les informations que vous avez peut-être ratées la semaine dernière.


Tous les liens listés ci-dessous sont a priori accessibles librement. Si ce n’est pas le cas, pensez à activer votre bloqueur de javascript favori ou à passer en “mode lecture” (Firefox) ;-)

Brave New World

Spécial femmes dans le monde

Spécial France

Spécial femmes en France

Spécial médias et pouvoir

Spécial chasse

Spécial emmerdeurs irresponsables gérant comme des pieds (et à la néolibérale)

Spécial recul des droits et libertés, violences policières, montée de l’extrême-droite…

Spécial résistances

RIP

Spécial GAFAM et cie

Les autres lectures de la semaine

Les BDs/graphiques/photos de la semaine

Les vidéos/podcasts de la semaine

Les trucs chouettes de la semaine


Retrouvez les revues de web précédentes dans la catégorie Libre Veille du Framablog.

Les articles, commentaires et autres images qui composent ces « Khrys’presso » n’engagent que moi (Khrys).

L’épisode de la modération – épisode 4

jeudi 12 janvier 2023 à 10:34

Maiwann, membre de l’association, a publié sur son blog une série de cinq articles sur la modération. Nous les reproduisons ici pour leur donner (encore) plus de visibilité.

Voici le quatrième.

Alors maintenant que je vous ai dit tout ça, faisons un petit bilan des avantages et surtout des limites de ce système !

Si vous avez raté les articles précédents, vous pouvez ls retrouver par ici :
– Chapitre 1 : Un contexte compliqué
– Chapitre 2 : La découverte de la modération
– Chapitre 3 : La pratique de la modération

 

Pepper la sorcière et Carrot le chat dorment paisiblement contre un éléphant (un mastodonte) dans une jolie jungle.

My Neighbor Mastodon – CC-BY David Revoy

Les avantages

Je vais être courte parce que mon point n’est pas ici d’encenser Mastodon, donc je ne creuserai pas trop les avantages. Cependant je ne peux pas m’empêcher de remettre en avant deux points majeurs :

Indéniablement, on bloque très vite les fachos. C’est quand même, à mon avis, le grand intérêt, qui n’est pas assez connu au-delà de Mastodon. De ce fait nous avons une exigence collective très faible par rapport à la modération : quand Twitter annonce qu’il ne peut pas faire mieux, on le croit sur parole alors qu’une alternative sans moyens d’envergure y arrive… Journalistes spécialisés si vous lisez ce message !

 

Ensuite, le fonctionnement est beaucoup plus démocratique car : ce sont des humains que vous choisissez qui font la modération. Et ça, ça change beaucoup de choses. Déjà parce qu’on est dans un fonctionnement beaucoup plus… artisanal de la modération, donc potentiellement avec plus de proximité, dans l’idéal on peut discuter / appeler à l’aide ses modérateurices… et même selon les endroits, proposer de participer à la modération et ça, ça compte pour se rendre compte du boulot que c’est, et participer aux décisions importantes !

 

Les limites

 

Comme rien n’est parfait, et que nous sommes sur une alternative qui évolue tout le temps, quelques points qui restent des limites malgré le modèle anti-capitaliste de Mastodon.

 

Temps de traitement d’un signalement

 

Il y a un difficile équilibre entre le temps de traitement d’un signalement et le temps d’entendre plusieurs avis du collectif de modération. Je pense qu’il est sain de prendre le temps, mais il y a des situations où l’un·e des modérateurices peut considérer qu’il y a « urgence » et dans ce cas, attendre 48h c’est beaucoup (pour protéger une personne par exemple). C’est un point que nous n’avons pas encore creusé à Framasoft (comment gérer le dilemme rapidité d’action vs. disponibilité du collectif), mais que je me note de rajouter en discussion pour nos prochaines retrouvailles !

 

Encore une fois je parle là des cas difficiles à départager. Si il s’agit de pédopornographie, les salariés de Framasoft sont déjà habitués à devoir réagir rapidement pour supprimer le contenu, donc je ne traite pas ce sujet ici car il n’est pas spécifique.

 

Beaucoup d’utilisateurices, beaucoup de problèmes

Framasoft est une association très connue, et nos utilisateurices nous choisissent souvent car iels ont confiance en nous (merci !).

Mais cela entraine une responsabilité compliquée à gérer : plus de monde chez nous, ça nous fait plus de travail, de modération notamment.

 

Aussi, dans un cadre plus large qui était celui de la déframasoftisation d’Internet, nous avons fermé les inscriptions, ce qui nous a permis d’alléger la charge de notre coté.

 

Et comme tous les Mastodon sont interconnectés, il est possible d’aller s’inscrire ailleurs pour suivre ce qui se passe chez nous, donc c’est un fonctionnement technique qui nous permet de mieux vivre le travail de modération… youpi !

 

Éviter la « spécialisation » des modérateurices

 

Lors de la mise en place d’une équipe de modération à Framasoft, il a fallu faire un petit temps de formation-découverte à l’interface de modération de Mastodon.

 

Or on a vu apparaitre assez rapidement une « spécialisation » entre celleux qui « savaient » utiliser l’interface, et celleux qui n’osaient pas car ne « savaient pas » l’utiliser.

 

Pourtant il y a beaucoup de valeur à ce que la connaissance autour des outils circule auprès de tou·tes celleux que cela peut intéresser :
— Pour qu’il y ait de plus en plus de modérateurices, ce qui répartit le temps dédié à la modération,
— Pour que la discussion soit ouverte à des personnes qui n’ont pas la tête plongée dans la modération, ça permet d’entendre d’autres paroles, c’est appréciable.

 

Pour résoudre ce problème, nous avons organisé des visios de modération !

C’est une pratique que nous avons dans ma coopérative : faire des tâches chiantes, c’est quand même bien plus sympa ensemble !

Alors quand l’un de nous disait « bon, là, il y a quand même beaucoup de signalements qui s’accumulent » je répondais parfois « ça vous dit on fait une visio pour les traiter ensemble ? ! »

 

Nous n’avions pas besoin d’être beaucoup, à 2, 3 ou 4 c’était déjà bien plus sympa, même les contenus agressifs sont plus faciles à traiter quand les copains sont là pour faire des blagues ou râler avec toi ! Nous lancions un partage d’écran, idéalement d’une personne pas hyper à l’aise pour l’accompagner, et nous traitions les signalements.

 

Autre effet bénéfique : la boucle de « je demande leur avis aux copaines, j’attends, je traite le signalement » est raccourcie car nous pouvons collectivement débattre en direct du problème. C’est vraiment une façon très sympa de faire de la modération !

 

Les « On va voir » et autres « On peut pas savoir »

 

Enfin, si tout cela est possible actuellement, une part de moi me demande si ce n’est pas dû au fait que Mastodon passe encore « sous les radars ».

C’est un sentiment que j’ai tendance à minimiser vu que cela ne nous a pas empêché d’avoir des hordes de comptes d’extrêmes droites qui se ramenaient. Donc une part de moi pense que le réseau (qui a déjà six ans donc on est loin du petit truc tout nouveau qui a six mois) a un fonctionnement déjà résilient.

Et une autre partie de moi sait qu’elle n’est pas voyante, donc on verra bien dans le futur !

 

Par contre je voudrais insister sur le fait qu’on ne peut pas savoir. Tous les articles qui vous expliqueront que Mastodon ne peut pas fonctionner parce que « intégrer un argument d’autorité sur le fait que ce n’est pas assez gros » ne sont pas mieux au courant que les utilisateurices et administrateurices depuis des années. Et je n’ai pour l’instant vu aucun argument pertinent qui aurait tendance à montrer que le réseau et ses modérateurices ne peut pas supporter une taille critique.

 

Comme d’hab, le secret : il faut prendre soin

 

Cette conclusion ne va étonner personne : La solution pour une bonne modération, c’est de prendre soin.

 

Prendre soin des utilisateurices en n’encourageant pas les discours haineux (techniquement et socialement), en ne les propageant pas (techniquement et socialement).

 

Prendre soin des structures qui proposent des petits bouts de réseaux en leur évitant d’avoir trop de pouvoir et donc trop de responsabilités sur les épaules (et trop de coûts).

 

Prendre soin des modérateurices en les soutenant via un collectif aimant et disponible pour leur faire des chocolats chauds et des câlins.

Cher·e modérateurice qui me lis, tu fais un boulot pas facile, et grâce à toi le réseau est plus beau chaque jour. Merci pour ton travail, j’espère que tu as un collectif qui te soutiens, et que se soit le cas ou non, pense à avoir sous la main le numéro d’un·e psychologue, au cas où un jour tu tombes sur quelque chose de vraiment difficile pour toi/vous.

 

Cœur sur vous <3

 

Et pour finir ?

Je n’ai pas pu m’empêcher de conclure avec un billet dédié au contraste entre mon expérience de la modération et ce qui se passe sur Twitter. La semaine prochaine paraîtra donc un billet spécialement dédié à l’oiseau bleu : et Twitter alors ?