Les deepfakes n’en finissent plus de faire parler. Depuis quelques jours, l’application chinoise ZAO, qui permet à ses utilisateurs de remplacer dans une séquence vidéo, le visage d’une célébrité par le vôtre, ou celui d’un ami, fait un véritable tabac. Un succès qui soulève, outre la question de la protection des données, de nombreuses questions.
La chaîne YouTube Ctrl Shift Face donne un aperçu des possibilités du deepfake. Par exemple, une des vidéos transforme l’acteur Bill Hader en Arnold Schwarzenegger.
Néanmoins, si ce type de montage, bien que troublant, reste divertissant et inoffensif, d’autres applications ont, quant à elles, dépassé les limites. On pense notamment au phénomène du fake porn qui fait «participer» des célébrités comme Gal Gadot (Wonder Woman) ou Scarlett Johansson dans des films à caractère pornographique, en plaquant leur visage sur celui de véritables actrices de film X.
À croire que le deepfake et le sexe font malheureusement bon ménage, l’application Deep nude, récemment censurée, permettait à ses utilisateurs de «déshabiller» virtuellement des femmes lambda en prenant simplement un cliché d’elles dans la rue. L’algorithme de l’application, utilisant des analyses poussées, proposait de dévoiler une version potentielle de leurs parties intimes.
Malgré le caractère dérangeant de ce type d’application, les conséquences des deepfakes d’un point de vue politique, voire géopolitique, pourraient être beaucoup plus graves. En effet, on se rappelle la vidéo partagée par le média Buzzfeed, où des termes injurieux à l'égard de Donald Trump sont énoncés par un faux Barack Obama.
Yannick Harrel, expert et chargé de cours en cyberstratégie, auteur de nombreux ouvrages sur le cyberespace et de stratégies de la donnée, a détaillé à Sputnik les écueils de cette technologie.
Sputnik France: on sait que la diffusion massive de fake news repose en grande partie sur des biais de confirmation. Avec des vidéos créées grâce à des IA qui permettent de faire tenir tel ou tel propos à une personnalité publique ou politique, le deep fake est-il un phénomène plus préoccupant que celui des infox?
Yannick Harrel: «le "deepfaking" est une évolution de ce qui existait déjà depuis de nombreuses années. Pourtant, deux éléments lui ont permis de franchir un cap tant qualitatif que quantitatif: la datamasse et l'intelligence artificielle auxquels vous ajoutez une puissance de calcul démultipliée linéairement depuis les années 1970 (loi de Moore) […] Sur le principe donc, rien de nouveau depuis l'avènement de l'enregistrement des données visuelles. On peut citer de nombreuses retouches photographiques sur différents supports. Par exemple, en 1864 avec le général Ulysse S.Grant au front pendant la guerre de Sécession (association de trois photographies différentes pour en créer une), le requin qui émerge de l'eau à proximité d'un homme de l'US Air Force hélitreuillé.
On pourrait également parler de l'effacement de Léon Trotski et Lev Kamenev en 1920 ou encore le tir de quatre Shahab-3 iraniens en lieu et place de trois en 2008. […]
Néanmoins, là où le procédé est toutefois plus complexe et remarquable, c’est que les retouches sont désormais réalisées en temps réel à l’image des réalisations du vidéaste Ctrl Shift Face.
Et pour cause, on passe de l'image fixe à de l'image en mouvement, la difficulté est donc accrue. De ce fait, on pourrait être susceptible de donner encore plus de crédibilité à ce qui est techniquement plus compliqué. D'où le risque de méprise en visionnant certaines vidéos puisque leur manipulation est censée être bien plus improbable que de simples photographies.»
«N'oublions pas l'aspect psychologique pour de nombreux spectateurs crédules qui se traduirait par: je ne crois que ce que je vois ».
Yannick Harrel: «elles sont pléthore: politique, humoristique, pornographique, pédagogique, etc. Le plus compliqué est de discerner les productions du deepfaking. À ce titre, on peut conjecturer que l'intelligence artificielle sera une réponse à cette problématique, et ce de façon ironique puisque ce procédé technique n'aurait pu connaître cet essor sans son apport. Cela laisse entrevoir, dans le futur, une lutte entre intelligences artificielles dont on peine à mesurer les conséquences plus larges.»
Sputnik France: Comment peut-on réussir à se prémunir contre ce phénomène?
Yannick Harrel: «pour se prémunir contre ce phénomène, le mieux est déjà de ne pas diffuser ses photographies sur de multiples réseaux sociaux. Nous savons pertinemment que ceux-ci exploitent ces données, y compris graphiques, à leur profit ou au profit de partenaires commerciaux.
Ce procédé technique a le mérite de nous rappeler que notre patrimoine ne se limite pas simplement à nos biens matériels ou immatériels mais aussi à notre personne. Selon les pays, le droit à l'image est protégé plus ou moins fortement mais il existe, et peut justifier l'intervention de la justice. Cependant, je rappelle qu'un minimum de précaution est nécessaire avant toute diffusion volontaire de sa représentation visuelle et qu'une entreprise ou une administration employant illégalement ou transférant celle-ci est susceptible de poursuites.»
Sputnik France: selon vous, les deepfakes peuvent-elles devenir une «arme» pour des gouvernements dans une optique de guerre informationnelle?
Or, par le passé, comme rappelé précédemment, certaines photographies retouchées avaient été employées à remonter le moral des troupes, discréditer une section politique dissidente ou attribuer indûment un évènement à une puissance concurrente. Toute cyberpuissance intervient sur les trois couches disponibles: logicielle, matérielle et informationnelle.»
«Si certains utilisateurs emploient le deepfaking pour assouvir de bas instincts, certains États l'emploient pour assouvir de basses œuvres.»