Sans offense! Facebook bannit «proactivement» les discours de haine mais ses formulations interrogent

Assumant la tâche de «détection proactive» de la haine, Facebook semble s’adonner à la description du contenu pouvant faire mettre au ban un utilisateur. Et ce, avec un luxe de détails.
Sputnik

Facebook s’autorise-t-il plus dans ses politiques que ses utilisateurs ne peuvent se permettre dans leurs messages? Dans son rapport de novembre 2019 sur l’application des standards de la communauté, le réseau social s’est vanté avoir «investi dans la détection proactive des discours de haine afin de pouvoir identifier ces contenus avant que des personnes ne [les lui] signalent, et parfois même avant que quiconque ne les voie».

Pour ce faire, Facebook s’est armé d’un dispositif incluant des «analyses de correspondances de texte et d’image» et «des classifieurs de machine learning».

Or, à lire attentivement ses règles en matière de discours de haine, Facebook semble être allé trop loin dans ses descriptions des cas potentiels.

Comparaisons interdites

Sous prétexte de protéger les sentiments des gens pour qu’ils «ne se sentent pas attaqués sur la base de ce qu'ils sont», la société classe les messages haineux en plusieurs groupes («niveaux»), poussant à réfléchir sur ce que le public concerné penserait à la vue de certaines formulations.

Au premier niveau figurent les messages, images ou textes, comparant

  • «les personnes noires de peau et les singes ou les créatures ressemblant à des singes»,
  • «les personnes de confession juive et les rats»,
  • «les personnes de confession musulmane et les porcs»,
  • «les personnes de confession musulmane et les relations sexuelles avec des chèvres ou des porcs»,
  • «les personnes d’origine mexicaine et les créatures similaires aux vers».

Attitude «déshumanisante»

Globalement, les contenus «déshumanisants» incluant «des insectes», «des animaux culturellement perçus dans une culture comme inférieurs intellectuellement ou physiquement», «de la saleté, des bactéries, des maladies et des excréments», «des sous-hommes» seront bannis, prévient Facebook.

Il est interdit en outre de «faire référence aux transgenres ou personnes non binaires en les appelant "ça"» («it» dans la version anglaise), un point qui, semblant logique au premier abord, pourrait soulever des questions pour les principaux concernés.

En guise d’exemple, l’artiste Demi Lovato a publié en mai une vidéo où elle se définissait comme «they», équivalent de «iel», pronom neutre entre «il» et «elle» qui n’a pas de transcription officielle en français.

Dans les commentaires, le service de vidéo Facebook Watch affirme être «très fier pour elle et pour son parcours de rétablissement», ce qui «va inspirer de nombreux personnes à vivre leur vérité».

Ce changement de pronom s’avère s’inscrire dans les «vérités» acceptées par Facebook, mais ont-elles leurs limites? Si une personne adopte le pronom «it» et qu’une autre l’appelle ainsi selon son souhait, cette dernière sera-t-elle donc bannie du réseau social?

Expressions offensantes

Au niveau suivant, Facebook cite explicitement –pour ne pas laisser de marge d’interprétation aux utilisateurs– les paroles à éviter. Elles sont aussi réparties en plusieurs catégories telles que les déficiences physiques, mentales, morales. Ici figurent également les insultes, les expressions de dégoût, de mépris…

Cependant, le chevalier blanc protégeant les âmes sensibles aurait pu choisir une autre formulation afin de présenter les comparaisons et généralisations du niveau 1 pour éviter d’insulter ceux qu’il est censé défendre.

Risques pour la sécurité

Jamais trop prudent? Banni de Facebook après l’assaut du Congrès américain par ses partisans, l’ex-Président américain Donald Trump a vu le délai de sa punition fixé à une peine de sûreté de deux ans, et ne pourra y reprendre la parole que lorsque les «risques pour la sécurité du public auront disparu».

Facebook propose de dénoncer ses amis que l’on soupçonne de radicalisation
En cela, le géant du Net s’est retrouvé sous le feu de critiques du Président actuel. Selon Joe Biden, les réseaux sociaux «tuent les gens via une désinformation».

La secrétaire de presse de Facebook, Dani Lever, a rejeté ces allégations «infondées» sur ABC News, persuadée que «Facebook aide à sauver des vies comment en témoignent les faits», notamment l’accessibilité de l’information sur les vaccins.

Le compte Facebook de l’agence Sputnik France s’est retrouvé à maintes reprises privé de plusieurs fonctionnalités, sans parler du risque d’être supprimé, à la suite de mises en garde dénonçant de la «désinformation» dans certains articles. Ceux-ci, à partir d’études universitaires ou de propos de scientifiques, portaient aussi sur la pandémie. Autres exemples d’une «vérité» sélectionnée?

«Nous nous réservons le droit de supprimer le contenu concerné lorsque l’intention n’est pas claire», résume Facebook dans son chapitre sur les discours de haine.

Une maxime appliquée visiblement par rapport à tout autre type de contenu répréhensible pour l’entreprise. Mais l’intention derrière ces standards, en y regardant de plus près, interroge aussi.

Discuter