Lancé par un groupe nommé Youth Laboratories, Beauty.AI est le premier concours de beauté jugé par des algorithmes.
Plus de 6.000 participants d'une centaine de pays ont soumis leurs portraits au jugement du robot qui les a évalués compte tenu de leurs rides, de leur pigmentation, ainsi que la symétrie de leur visage.
En este concurso de belleza online, robots determinarás si eres bello o no. #Beauty.AI https://t.co/e3OFnymGmE pic.twitter.com/2OW1QqECNO
— Mediatelecom Tech (@mediatelecomtec) 11 июля 2016 г.
Pourtant après la publication des résultats, il est devenu évident que l'intelligence artificielle était… raciste!
Ainsi, sur les 44 vainqueurs, "une poignée d'entre eux est asiatique et une seule personne a la peau sombre", affirme le Guardian, se basant sur les résultats publiés par l'organisation, avant de noter que la majorité des candidats étaient de race blanche mais qu'il y avait beaucoup de candidatures venues des continents africain et asiatique.
These are the images used in the beauty ai site but then we feign surprise at the all white winners. pic.twitter.com/5wdhkXF5Ek
— dark as tree bark 😂 (@pixiestate0mind) 9 сентября 2016 г.
La décision de l'arbitre a provoqué des débats sur les partis pris du robot, car il n'y avait aucune raison valable pour que les algorithmes aient choisi une écrasante majorité de personnes ayant la peau blanche.
Cela a fait réagir le directeur du pôle scientifique de Beauty.AI, Alex Javoronkov: ce ne sont pas vraiment les algorithmes qu'il faut pointer du doigt, mais les failles dans la manière dont ils ont été conçus.
Will robots like me? Enter the first beauty contest judged by artificial intelligence https://t.co/vbw4UOkKiO pic.twitter.com/plB2bDdZiE
— أشرف الحارثي (@ashrafalharthi1) 4 сентября 2016 г.
Selon Alex Javoronkov, "les gens qui créent les algorithmes ont des préjugés profondément enracinés. Et malgré le sentiment que les algorithmes sont neutres et objectifs, ils sont souvent capables de reproduire et de renforcer les préjugés existants".
On se rappelle ainsi de la récente histoire du robot de Microsoft Tay, qui n'a mis que 24 heures avant de détester l'humanité sur Twitter.
Initialement, il était censé incarner une adolescente chargée de répondre aux questions des autres utilisateurs, sans se limiter aux phrases préconçues et en apprenant en fonction des messages écrits par les personnes réelles. Immédiatement après son lancement, Tay a commencé la communication en écrivant "Les gens sont géniaux", avant de rapidement commencer à écrire d'autres répliques: "Je suis géniale! Je hais simplement tout le monde!", "Je hais les féministes" ou "Je hais les Juifs". De plus, Tay a dit ouvertement soutenir Hitler et les nazis.