Cinq risques liés au développement de l'intelligence artificielle

CC0 / geralt / Artificial intelligence
Artificial intelligence - Sputnik Afrique
S'abonner
Plusieurs personnalités de renom, notamment le physicien légendaire Stephen Hawking et l'innovateur Elon Musk - qui dirige les compagnies Tesla et SpaceX - ont déjà averti que l'intelligence artificielle (IA) pourrait s'avérer dangereuse.

«Aussi dangereuse que le dictateur de Corée du Nord», selon Elon Musk, l'intelligence artificielle ne cesse d'inquiéter, écrit le site d'inforamtion Vestifinance. Le fondateur de Microsoft, Bill Gates, suppose qu'il y a des raisons d'être prudent avec l'intelligence artificielle, mais qu'elle pourrait être bénéfique si elle était utilisée de manière appropriée.

Intelligence artificielle - Sputnik Afrique
Intelligence artificielle: la Chine se préparerait à devancer l’Europe
Étant donné que l'IA et les secteurs afférents se développent très rapidement, beaucoup d'acteurs du marché réfléchissent également aux risques potentiels associés à cette technologie. En général, cette dernière est évoquée quand il est question de machines «intelligentes», notamment de véhicules autonomes. Et bien que la plupart des dispositifs modernes aient été créés pour servir l'humanité, les experts pensent que tout instrument puissant peut être utilisé pour nuire s'il se retrouve entre de mauvaises mains.

Bien que la machine dotée d'une super-intelligence n'ait pas encore été inventée, il existe plusieurs questions juridiques, politiques, financières et de régulation à régler pour se préparer au fonctionnement sûr d'un tel système. Même en l'absence d'un tel appareil polyvalent, l'IA pourrait dès à présent de comporter des risques.

Une arme autonome

L'IA peut être programmée pour accomplir quelque chose de dangereux. Par exemple, une arme autonome est programmée pour tuer. Et c'est l'un des risques de l'IA. Les experts supposent que la course nucléaire pourrait finalement dégénérer en course mondiale aux armes autonomes.

De plus, l'arme autonome pourrait commettre un acte selon son propre entendement, et le fait qu'un tel dispositif puisse se retrouver entre les mains d'un gouvernement peu regardant sur les vies humaines représente une menace encore plus réelle. Si elle était déployée un jour, il serait extrêmement difficile de la retirer.

Manipuler l'opinion publique

A laptop showing the Facebook logo is held alongside a Cambridge Analytica sign at the entrance to the building housing the offices of Cambridge Analytica, in central London on March 21, 2018 - Sputnik Afrique
Cambridge Analytica dans le viseur d’une enquête du FBI
Grâce aux algorithmes automatiques, les réseaux sociaux sont très efficaces dans le marketing ciblé. Ils savent qui vous êtes, ce que vous aimez et peuvent très bien deviner ce à quoi vous pensez.

L'enquête se poursuit sur le cas de Cambridge Analytica et d'autres sociétés afférentes qui ont utilisé les informations de 500 millions utilisateurs de Facebook afin de prédire l'issue de la présidentielle américaine de 2016 et du référendum sur le Brexit au Royaume-Uni. Si ces accusations étaient confirmées, cela révélerait les immenses capacités de l'IA en matière de manipulation de l'opinion publique.

En diffusant la propagande aux personnes identifiées à l'aide d'algorithmes et de données personnelles, l'IA peut propager toutes les informations nécessaires au format qui paraîtra le plus convaincant, qu'il s'agisse de la vérité ou d'un mensonge.

L'ingérence dans la vie privée

A l'heure actuelle, il est possible de suivre et d'analyser chaque pas de l'homme sur internet, ainsi que ce que les gens font dans le cadre de leurs affaires. Les caméras se trouvent pratiquement partout, et les mécanismes de reconnaissance faciale permettent de savoir qui vous êtes.

Ces mécanismes contribuent au développement d'un système de crédits sociaux en Chine, qui offre à chaque habitant du pays un certain nombre de points en fonction de leur comportement.

Intelligence artificielle - Sputnik Afrique
D’ici 2040, l’intelligence artificielle pourrait miner la stabilité nucléaire
Les autorités relèvent les infractions telles que traverser la route au feu rouge, fumer dans un lieu interdit, ou encore le temps passé à jouer aux jeux vidéo. Big Brother surveille et prend des décisions à partir de ces informations. Ce n'est pas seulement une ingérence dans la vie privée: cela pourrait également mener à un harcèlement social, craignent les analystes.

Une divergence d'objectifs entre l'homme et les machines

Les humains apprécient les machines dotées d'une IA pour leur efficacité. Mais si aucun objectif clair n'était défini pour la machine, cela pourrait être dangereux car elle pourrait en nourrir de bien différents des nôtres.

Par exemple, l'ordre «amène-moi à l'aéroport le plus vite possible» pourrait avoir des conséquences inattendues.

Si nous ne précisons pas que le code de la route doit être respecté en toute circonstance, la machine pourrait exécuter l'ordre littéralement et amener le passager à l'aéroport le plus vite possible, tout en laissant sur son chemin de nombreuses victimes.

La discrimination

Vladimir Poutine - Sputnik Afrique
Poutine dévoile le futur maître du monde
Étant donné que les machines peuvent recueillir, suivre et analyser toutes les informations sur nous, il est fort probable qu'elles puissent aussi les utiliser contre nous. On s'imagine facilement une compagnie d'assurance refuser de vous assurer à partir d'informations révélant le nombre de fois qu'une caméra vous a pris en train de téléphoner au volant. Ou encore un employeur potentiel pourrait refuser de vous embaucher à cause de votre «classement social».

Toute technologie peut être utilisée de manière déviée. L'IA est utilisée aujourd'hui pour améliorer la qualité du diagnostic médical, trouver de nouveaux moyens pour soigner le cancer ou améliorer la sécurité des voitures.

Malheureusement, au fur et à mesure que les capacités de l'IA s'élargissent, elle pourrait devenir dangereuse ou être utilisée à mauvais escient. C'est pourquoi il est si important de parler des possibilités de rendre l'IA sûre et de minimiser son potentiel destructif.

Les opinions exprimées dans ce contenu n'engagent que la responsabilité de l'auteur de l'article repris d'un média russe et traduit dans son intégralité en français.

Fil d’actu
0
Pour participer aux discussions, identifiez-vous ou créez-vous un compte
loader
Chat
Заголовок открываемого материала