En octobre, AlphaGo, un programme informatique développé par Google DeepMind, a réussi à battre à Londres par 5 à 0 Fan Hui, un joueur professionnel français d'origine chinoise, considéré comme le plus fort d'Europe. Cette information a été tenue secrète jusqu'à sa publication cette semaine dans la revue britannique Nature.
"En regardant ce match, j'ai été très impressionné par la puissance de l'AlphaGo, parfois, quand je ne savais pas les couleurs des joueurs, c'était difficile pour moi d'identifier de quel côté jouait l'ordinateur. Avant avoir vu ce match, je ne pouvais pas penser que l'ordinateur serait capable de rivaliser avec des pros, maintenant, il semble que la victoire de la machine sur les meilleurs joueurs de go est inévitable", a conclu John Diamond, le président de la Fédération britannique de go.
"AlphaGo joue comme un humain", explique le champion dans son entretien au Monde. Contrairement aux ordinateurs habituels, l'algorithme de Google n'a fait aucun coup "bizarre". Le jeu d'AlphaGo paraît naturel, et en plus, il restait imperturbable quand M. Hui, l'humain, a flanché de façon psychologique.
"A la fin, j'ai perdu toute confiance face à lui et ça, c'est catastrophique. Lui n'a pas ce problème", explique Fan Hui.
Ce système d'intelligence artificielle a été développé par David Silver et ses collègues du département Deepmind de Google, basé à Londres.
Tous les autres systèmes d'intelligence artificielle qui peuvent jouer au jeu de go ont un niveau assez faible — la limite de leurs capacités est le niveau d'un amateur fort. Cela tient au fait qu'ils reposent sur la classique "méthode de Monte-Carlo" qui simule à l'avance des milliers de parties pour deviner quels coups ont le plus de chances de se terminer par une victoire. Cependant, contrairement aux échecs, dans ce jeu, il y a beaucoup plus de mouvements et de combinaisons possibles, ce qui rend plus compliquée la création d'algorithmes capables de deviner les coups possibles de l'adversaire.
Google DeepMind comprend toujours la "méthode de Monte-Carlo", mais M. Silver et ses collègues ont construit leur propre intelligence artificielle à la base de deux réseaux de neurones — des algorithmes spécifiques qui simulent des chaînes de neurones dans le cerveau humain, en donnant à l'ordinateur une capacité d'apprentissage. L'un de ces réseaux est chargé d'évaluer la position actuelle sur la table, et l'autre utilise les résultats de l'analyse produite par le premier réseau pour choisir la meilleure réponse possible.
Google's #AlphaGo beats Go game European champion. Human players to be dethroned? https://t.co/XPrxgxOgJu pic.twitter.com/TRUyEqTcic
— China Xinhua News (@XHNews) January 28, 2016
D'après les scientifiques, ce système permet de réduire considérablement le nombre de coups possibles et, ainsi, de simplifier le calcul.
Avant le match avec le professionnel, les deux réseaux ont suivi une "formation" longue et intensive, en apprenant les règles et les secrets du go des joueurs professionnels, qui jouaient contre l'ordinateur durant les premières étapes de l'auto-développement d'AlphaGo. Après, l'intelligence artificielle a continué son auto-apprentissage en observant des matchs de go en ligne, et en jouant contre lui-même.
C'est le champion du monde de Go actuel qui deviendra l'adversaire suivant de l'intelligence artificiel de Google.
«Je suis honoré que je serai le prochain adversaire d'AlphaGo. Quelle que soit le résultat, si je perds ou si je gagne, il sera un jalon important dans l'histoire de Go. J'ai entendu dire que le système d'intelligence artificiels est très forte et qu'il devient de plus en plus intelligent, mais je suis sûr que je peux gagner au moins une fois ", a déclaré Sedol Lee, le champion du monde de Go sud-coréen.