"Avec la crise du Covid, l’intelligence artificielle est rentrée dans nos vies privées"

Sous l’effet de la pandémie, la collecte de données a pris une nouvelle dimension avec le déploiement des QR codes pour tous les citoyens. Analyse d’Emmanuel Goffi, cofondateur du Global AI Ethics Institute, pour Le Désordre mondial.
Sputnik
L’intelligence artificielle est au centre de toutes les attentions. Parmi ses applications, de nombreux pays s’intéressent particulièrement au déploiement massif de la reconnaissance faciale.
Aux États-Unis, le Bureau de la politique scientifique et technologique de la Maison-Blanche a publié un appel à contributions "sur les déploiements passés, les propositions, les projets pilotes ou les essais antérieurs, ainsi que sur l’utilisation actuelle des technologies biométriques à des fins de vérification d’identité, d’identification des individus et de déduction des attributs, y compris les états mentaux et émotionnels individuels".
Pendant ce temps à Moscou, avec le nouveau système "Face Pay", vous pouvez désormais payer votre trajet en métro en regardant simplement une caméra placée sur certains tourniquets.
Le service Face Pay lancé dans le métro de Moscou
Alors que dans le monde entier, des citoyens sont contraints d’utiliser un QR code lié à leur identité pour accéder aux activités de la vie quotidienne, comment ce dispositif s’intègre-t-il dans les projets des gouvernements? Emmanuel Goffi, codirecteur et cofondateur du Global AI Ethics Institute, ancien officier de l’Armée de l’air, décrypte le rapport entre la crise sanitaire et l’intelligence artificielle:
"Cela fait plusieurs années que l’on se pose des questions éthiques sur l’intelligence artificielle, mais avec cette pandémie de Covid, on s’est retrouvé face à l’utilisation massive de données, qu’elles soient personnelles, biométriques, de santé, etc. On s’est ainsi rendu compte que l’intelligence artificielle était rentrée dans nos vies privées."
L’ancien officier souligne les risques du déploiement des outils de traçage numérique actuels:
"Le plus grand risque associé à l’intelligence artificielle est une baisse de nos capacités à réfléchir. On est assisté en permanence et on perd en autonomie. On peut être suivi, contrôlé au quotidien. C’est très liberticide dans le sens où, en fonction de qui l’utilise et de quelle manière, cette intelligence artificielle peut mener à des privations de liberté, à un contrôle accru des populations."
Face à la généralisation de ce système, les pays démocratiques n’échappent pas aux dangers potentiels de cette technologie:
"Quand on parle de la France, on dit que ce n’est pas très insistant parce qu’on est dans un pays démocratique où l’utilisation des données est régulée. Mais il faut voir un peu plus loin et se poser la question sur le moyen et long terme: que se passera-t-il si demain ou après-demain on se retrouve avec un gouvernement qui va être un peu plus autoritaire?", s’interroge Emmanuel Goffi.
Le leader mondial de l’intelligence artificielle demeure pourtant la Chine, à en croire Nicolas Chaillan, ex-responsable en chef des logiciels de l’Armée de l’air américaine. "Nous n’avons aucune chance de nous battre contre la Chine dans 15 à 20 ans. À l’heure actuelle, c’est déjà une affaire réglée; c’est déjà terminé, à mon avis", a-t-il déclaré au Financial Times en septembre dernier. Il venait alors de démissionner de son poste, dénonçant la lenteur de l’innovation dans ce secteur de la Défense américaine. Emmanuel Goffi nuance ces propos:
"Je comprends son inquiétude, mais il faut être précautionneux avec la Chine. Elle a énormément rattrapé son retard mais l’AI couvre un spectre très large. Les États-Unis restent en tête pour l’instant, même si c’est à une courte tête."
Discuter