Les sentiments chez les robots, menace ou promesse pour les humains?

Dans une publication, deux neuroscientifiques ont suggéré que les robots devraient être dotés de sentiments afin de développer une véritable intelligence et de s’émanciper de l’être humain, ce qui ne les conduirait pas pour autant à les menacer. Ils ont expliqué comment.
Sputnik

De nombreuses fictions, du Cycle des robots d’Asimov jusqu’à la saga Star Wars, en passant par le dessin animé Wall-e, ont fait le portrait de robots doués de sentiments. Dans la vraie vie, il en est tout autrement, et c’est précisément ce que déplorent Kingson Man et Antonio Damasio, deux neuroscientifiques de l’université de Californie du Sud. Selon eux, les robots ont besoin de sentiments pour assurer leur propre survie et ainsi développer naturellement leur intelligence.

«Les robots ne sont pas conçus pour décrire l’état interne de leurs opérations d’une manière qui leur permettrait de ressentir cet état dans un espace mental», indiquent-ils dans leur article publié le 9 octobre dans Nature Machine Intelligence.

Le duo de chercheurs a mis en avant deux aspects indispensables au développement d’une véritable intelligence artificielle. D’une part, la robotique molle (soft robotics), soit l’utilisation de matériaux souples, élastiques et déformables pour la création de robots, tels que le silicone, le caoutchouc et le plastique. D’autre part, l’apprentissage profond (deep learning), qui est une méthode d’apprentissage automatique qui s’inspire du mode de fonctionnement des neurones humains.

Un robot composé de matériaux plus fragiles, mais plus facilement réparables, combiné au fait d’apprendre par lui-même, serait ainsi plus conscient du principe de «danger» et serait plus à même de réagir face à certaines situations.

Ce qu'il manque aux robots pour se soulever contre l'humanité

Comment développer une intelligence chez les robots?

Actuellement, les machines intelligentes sont simplement conçues pour effectuer des tâches bien précises, comme diagnostiquer une maladie, conduire une voiture ou gagner une partie d’échecs. Mais l’intelligence dans un seul domaine n’est pas comparable à l’intelligence générale de l’être humain, qui est capable de faire face à tous types de situations, même celles jamais rencontrées. Depuis longtemps, les chercheurs en intelligence artificielle sont à la poursuite de l’ingrédient qui rendra les robots intelligents de manière plus générale.

Ainsi, Man et Damasio suggèrent que cet ingrédient serait «l’équivalent artificiel du sentiment». D’après eux, les sentiments découlent de l’instinct de survie. Ils poussent les êtres vivants à rechercher les conditions optimales pour survivre. C’est de cette manière que la pensée humaine s’est développée et a exigé l’évolution d’une plus grande puissance cérébrale pour mettre au point de nouvelles capacités à se protéger et à réagir.

Une machine consciente de sa propre vulnérabilité pourrait ainsi agir afin de minimiser les menaces envers son existence et à développer de la même manière une façon de penser toujours plus élaborée. «Les objectifs et les valeurs de base seraient découvertes de façon organique plutôt que d’être conçus extrinsèquement», expliquent les chercheurs.

Mon voisin est un robot: la vision du futur d’un photographe français

Les lois de la robotique

Les propos de Man et Damasio font écho à ceux d’Isaac Asimov qui, dès les années 1950, avait élaboré des lois de la robotique à travers ses romans. Ces trois lois sont: les robots doivent protéger les humains, les robots doivent obéir aux humains et les robots doivent se protéger eux-mêmes. Chez Asimov, les deux premières lois supplantent la troisième.

Les histoires de robots finissent souvent mal pour leur créateur humain, avouent les deux hommes. Mais ceux-ci ont défini deux règles simples pour que les robots ne répondent jamais par la violence : Sentez-vous bien et ayez de l’empathie.

«En supposant qu’un robot soit déjà capable d’avoir des sentiments, un lien obligatoire entre ses sentiments et ceux des autres résulterait en un comportement éthique et sociable», soutiennent les neuroscientifiques.

Ils espèrent que cette idée sera prise en compte lors de futurs débats sur l’éthique des robots. «Les robots peuvent avoir encore moins d’obstacles au comportement moral que les humains», ont-ils conclu.

Discuter