Quatre associations de lutte contre les discriminations ont assigné lundi Twitter devant le tribunal judiciaire de Paris, jugeant que le réseau social manquait de manière "ancienne et persistante" à ses obligations en matière de modération des contenus.
"Face à une augmentation de 43% des contenus haineux sur Twitter pendant la période du confinement, l’UEJF, SOS racisme et SOS homophobie agissent en référé contre Twitter pour non-respect de son obligation légale de modération", ont-elles expliqué dans un communiqué.
Selon une étude menée par leurs soins du 17 mars au 5 mai, "le nombre de contenus racistes a augmenté de 40,5% (sur la période), celui des contenus antisémites de 20% et celui des contenus LGBTphobes de 48%". Les associations expliquent de plus avoir signalé au réseau social 1.110 tweets haineux, principalement des insultes homophobes, racistes ou antisémites sans équivoque, et constaté que seuls 12% d’entre eux avaient été supprimés dans "une période raisonnable allant de 3 à 5 jours".
"Ces résultats sont intolérables. (…) Ce que montre ce ‘testing’, c’est une inaction massive de la part d’une plateforme qui refuse manifestement de mettre les moyens humains nécessaires à la modération des contenus que son activité génère", a déclaré le président de SOS Racisme Dominique Sopo, cité dans le communiqué.
Les associations demandent au tribunal d’ordonner la désignation d’un expert chargé de constater "les moyens matériels et humains mis en oeuvre" par Twitter "pour lutter contre la diffusion des infractions d’apologie de crimes contre l’humanité, l’incitation à la haine raciale, à la haine à l’égard de personnes à raison de leur sexe, de leur orientation ou identité sexuelle, l’incitation à la violence, notamment aux violences sexuelles et sexistes, ainsi que des atteintes à la dignité humaine".
Elles souhaitent ainsi "dissiper l’épais mystère entourant la composition et la gestion des services de régulation de Twitter" et mesurer "l’ampleur de la désinvolture ancienne et persistante" sur la modération des contenus.
Contacté par l’AFP, Twitter a assuré investir dans des technologies de modération "pour réduire la charge qui pèse sur les utilisateurs de devoir effectuer un signalement". "Plus d’un tweet sur deux sur lequel nous agissons pour abus" vient désormais d’une détection automatique plutôt que d’un signalement, a précisé la directrice des affaires publiques de Twitter France Audrey Herblin-Stoop dans une déclaration écrite. "A titre de comparaison, ce ratio était de 1 sur 5 en 2018", a-t-elle ajouté.
Régulièrement accusées d’héberger ou de contribuer à la diffusion de contenus haineux ou violents, les grandes plateformes de contenus ont été incitées à mettre en place des algorithmes de filtrage, des procédures de signalement et des équipes de modérateurs.
En France, l’Assemblée nationale doit adopter définitivement ce mercredi une proposition de loi controversée de lutte contre la haine sur internet, qui doit instaurer l’obligation pour les plateformes et moteurs de recherche de retirer sous 24 heures les contenus "manifestement" illicites, sous peine d’être condamnés à des amendes pouvant atteindre 1,25 million d’euros. Le délai est réduit à une heure pour les contenus terroristes ou pédopornographiques.
- SOURCE E LLICO