Le patron de Facebook en France, Laurent Solly, a accepté pour Le Parisien de revenir sur les affaires qui ont mis sur la sellette le groupe au cours de ces derniers mois.
Alors que Mark Zuckerberg a annoncé, début mars, un virage stratégique pour Facebook, dont il veut faire une plateforme de communication plus soucieuse de la vie privée des utilisateurs, la question de confidentialité et de protection des données personnelles se pose avec acuité.
«C'est notre priorité», a affirmé Laurent Solly.
Il a précisé que le réseau social essayait «de tirer les leçons de ce qui s'est passé» pour procéder à des améliorations.
«Il y a eu parfois des erreurs ou des parties tierces qui ont utilisé des informations issues de Facebook sans autorisation», a-t-il avoué.
Pour ce qui est des fausses informations, Laurent Solly a rappelé que Facebook luttait activement contre les faux comptes.
«Au cours des six derniers mois de 2018, nous avons supprimé 1,5 milliard de faux comptes, de fausses pages. C'est plusieurs millions par jour», a-t-il détaillé.
En outre, la société a mis en place un réseau mondial de fact checking avec 44 partenaires, dont le principal est l'agence France-Presse (AFP), qui aident à vérifier des contenus textuels, des photos et des vidéos.
Évoquant le problème des «infox», notamment lors des campagnes électorales, le patron de Facebook France a indiqué qu'un bon déroulement des élections européennes prévues pour le 26 mai était «un enjeu majeur pour nous».
«Nos dispositifs vont être renforcés par l'ouverture d'un centre des opérations, à Dublin, où toutes nos équipes seront rassemblées pour 24h/24h sortir les fausses pages, identifier toute tentative d'interférence, notamment étrangère», a-t-il souligné.
Revenant sur le scandale de la vidéo de l'attaque terroriste de Christchurch en Nouvelle-Zélande, qui a été diffusée en direct sur Facebook, il a constaté que les outils du réseau n'avaient pas permis de la détecter. Toutefois, grâce à l'intelligence artificielle, il a été possible de retirer plus d'un million de copies avant leur diffusion.
«Il faut désormais améliorer la technologie pour faire mieux», a noté Laurent Solly.
Il a détaillé le modèle de fonctionnement du réseau pour empêcher la diffusion de contenus violents.
«Chaque jour, des centaines de millions de textes, photos et vidéos sont publiés sur Facebook. Lorsqu'ils sont signalés, ils sont scrutés et analysés par 30.000 responsables de la sécurité et modérateurs […] Sur 10.000 contenus postés, 23 à 27 sont considérés comme violents», a précisé Laurent Solly.
Il a souligné que Facebook avait également recours à des outils d'intelligence artificielle.
«Sur les six derniers mois de l'année 2018, nous avons ainsi sorti 12 millions de contenus, posts, photos ou vidéos liés au terrorisme en les repérant dans 99,5% des cas avant même qu'ils ne soient diffusés. On fait de même pour les publications pornographiques et pédo-pornographiques avec un résultat de 96% des contenus détectés avant publication.»
Pour ce qui est de la publicité et, plus précisément, du ciblage publicitaire, il est possible de l'éviter, a confié Laurent Solly, précisant que c'était simple et «faisable en trois clics.»