Une demande inattendue
Comme bien d'autres développeurs talentueux de la Sillicon Valley, Ilya Eckstein est originaire de Russie. Après avoir déménagé aux USA au milieu des années 2000, il a fondé son entreprise Robin.AI, anticipant la vague des bots intelligents. Eckstein voulait créer une intelligence artificielle à part entière capable d'entretenir une conversation avec des humains en empruntant leur lexique au fur et à mesure.
Cependant, peu de développeurs pouvaient prévoir que les gens allaient commencer à harceler leurs créations et à se lancer dans des conversations intimes avec elles. Pourtant, aujourd'hui, on constate que les demandes des utilisateurs à leurs assistants intelligents revêtent de plus en plus souvent un caractère explicitement sexuel.
Selon Eckstein, dont l'application de trafic intelligente est devenue une plate-forme conversationnelle pour les camionneurs et les entreprises de taxi, son « algorithme intelligent » doit faire face en permanence à des questions personnelles indiscrètes et à une drague masculine assez vulgaire. Le programmeur, perplexe, note que de nombreux utilisateurs testent ainsi son logiciel ou bien font simplement des blagues érotiques. « Mais parfois, ils s'imaginent clairement une jeune fille réelle, ce qui est déjà bizarre », dit-il.
D'autres espèrent nouer des relations avec le bot ou même en faire un esclave sexuel. Ils n'hésitent pas à partager leurs émotions intimes, à parler de leur volonté de domination ou des techniques BDSM. Ce genre d'utilisateurs ne sont que 5%, mais ils sont très sérieux dans leurs intentions et ne se rendent pas compte qu'ils mènent un dialogue avec un smartphone ou une enceinte musicale.
Cependant, Harrison note qu'indépendamment de leur fonctionnalité, la plupart des programmes seront tôt ou tard confrontés aux fantasmes intimes des utilisateurs.
Une voix sexy
Face à ce problème peu commun, les développeurs adoptent des approches différentes. Apple utilise les réseaux de neurones et les technologies d'apprentissage automatique pour que Siri puisse reconnaître l'intonation de la phrase et fournir ainsi des réactions adaptées. Par exemple, à la question « Pourquoi personne ne veut coucher avec moi? », posée d'une voix calme, l'assistant personnel proposera les adresses des agences d'escorte les plus proches, par contre, à la même question prononcée d'un ton agressif, Siri demandera de cesser d'être grossier.
Les employés de Microsoft et d'Amazon, dont les logiciels ont également des voix féminines, adoptent une position beaucoup plus dure. Si les utilisateurs cherchent à draguer Cortana ou Alexa, celles-ci demandent de répéter la question ou bien rappellent délicatement qu'elles ne sont pas des êtres humains, mais des assistants vocaux.
Google a trouvé une solution encore plus facile: bien que leur logiciel parle d'une voix féminine, il ne se classe parmi aucun des sexes. Cela permet à l'Assistant de n'afficher aucune réaction du tout aux harcèlements ou aux blagues vulgaires.
Aujourd'hui déjà, tout le monde peut créer un chatbot connecté au réseau de neurones qui pourra envoyer des messages sur la base des données préalablement téléchargées et traitées. Ceci a été démontré par le programmeur américain Joshua Allen qui a fait revivre sur le réseau sa compagne décédée. L'algorithme a analysé les messages et les profils de celle-ci sur les réseaux sociaux et a pu adopter complètement la manière de communiquer de la défunte.
Trop ennuyeux
« Autant que je sache, la plupart des développeurs pensent dans des critères plus globaux. Les entreprises se sont engagées dans une sorte de course et celui qui présentera la solution la plus révolutionnaire gagnera. Aujourd'hui personne n'a le temps de s'occuper de ces dragueurs d'algorithmes. Bien que l'idée de créer un chatbot érotique soit assez amusante en soi et pourrait être rentable », dit-il en riant.
Pourtant, il avoue bien comprendre ceux qui essaient de flirter avec Siri ou Cortana. « Premièrement, c'est drôle. Et puis, vous savez, c'est comme utiliser un chat érotique — très embarrassant, mais vachement intéressant », conclut-il.
Les opinions exprimées dans ce contenu n'engagent que la responsabilité de l'auteur.