Facebook en appelle à la police pour stopper les retransmissions d'attaques extrémistes

© AP Photo / Vincent YuLa mosquée Masjid Al Noor à Christchurch, en Nouvelle-Zélande
La mosquée Masjid Al Noor à Christchurch, en Nouvelle-Zélande - Sputnik Afrique
S'abonner
Facebook a recruté la police de part et d'autre de l'Atlantique pour éduquer ses outils d'intelligence artificielle afin de stopper les retransmissions vidéos d'attaques extrémistes en direct sur sa plateforme, à l'instar de la tuerie de Christchurch, diffusée pendant de longues minutes sur le réseau social.

Cette initiative, annoncée mardi par le premier réseau social du monde, s'inscrit dans le cadre plus large des mesures prises par le réseau social pour nettoyer les contenus «haineux et extrémistes» et en particulier de ses efforts pour ajouter les mouvements ou individus prêchant le suprémacisme blanc à sa liste «d'organisations terroristes».

Le réseau fondé par Mark Zuckerberg a été vivement critiqué pour avoir mis 17 minutes avant de stopper la vidéo retransmise en direct d'un suprémaciste blanc, qui s'est filmé pendant qu'il attaquait une mosquée le 15 mars à Christchurch, en Nouvelle-Zélande. Il a tué 51 fidèles musulmans.

Depuis, l'entreprise multiplie les initiatives: restrictions pour l'accès à Facebook Live, rencontres avec des responsables politiques, en passant par une alliance avec d'autres réseaux pour freiner le «détournement de technologies permettant de diffuser du contenu terroriste».

La police de Londres apportera son concours à partir du mois d'octobre pour permettre à Facebook de mieux entraîner ses outils d'intelligence artificielle à détecter rapidement ces contenus et les supprimer. La difficulté vient du fait que la «machine» doit pouvoir faire la différence entre une attaque dans la vraie vie et une scène de film ou de jeu vidéo.

Facebook - Sputnik Afrique
Facebook embauche des journalistes pour «mettre en avant les bons articles»
Les images filmées par les caméras portées par les unités de la police londonienne lors de leurs entraînements au tir viendront alimenter et enrichir la banque d'images que Facebook a déjà constituée grâce aux forces de l'ordre américaines.

Les outils d'intelligence artificielle ont besoin de quantités énormes de données - ici des images de fusillades - pour pouvoir apprendre à les identifier correctement, les trier et in fine les supprimer.

Le réseau rappelle avoir banni 200 organisations suprémacistes blanches et avoir élargi sa définition de ce qui constitue une organisation «terroriste» en faisant appel à des experts. «La nouvelle définition reste concentrée sur le comportement, pas l'idéologie de ces groupes», mais elle est désormais élargie à «des actes de violence en particulier dirigés contre des civils avec l'intention de les contraindre et de les intimider».

Facebook a aussi élargi les missions d'une équipe de 350 experts du maintien de l'ordre, de la sécurité nationale, de l'anti-terrorrisme mais aussi des universitaires spécialisés dans l'étude du phénomène de radicalisation pour juguler les efforts «de gens et d'organisations qui appellent à la violence ou commettent des actes violents qui ont un impact dans le monde réel» et pas seulement en ligne.

Fil d’actu
0
Pour participer aux discussions, identifiez-vous ou créez-vous un compte
loader
Chat
Заголовок открываемого материала