Ces projets incluent l'étude, avec un budget de 136 000 dollars, de la possibilité de créer des systèmes d'armement dotés d'une IA et des moyens éventuels pour les contrôler.
Cet argent a été donné par l'organisation caritative Open Philanthropy Project. Le centre sera dirigé en collaboration avec les universités d'Oxford et de Cambridge.
"Il existe des raisons de croire que des conceptions incontrôlés pourraient avoir des conséquences dangereuses, aussi bien à cause de gouvernements irresponsables qu'au vu des capacités sans précédent de tels systèmes", explique Nick Bostrom de l'université d'Oxford.
"Ce centre se penchera sur les conséquences à long terme de l'utilisation de l'IA, qui pourrait prochainement dépasser les capacités de l'homme dans la plupart des domaines qui nous intéressent, et sur les décisions politiques qui pourraient réduire les risques potentiels relatifs à de tels systèmes", ajoute-t-il.
Les projets qui doivent bénéficier d'un financement du Future of Life Institute comprennent des recherches sur les principes éthiques et les valeurs humanistes qui pourraient être intégrés dans le travail sur les systèmes d'IA.
Le groupe a déjà annoncé avoir reçu près de 300 requêtes de financement des quatre coins du monde.
Le fondateur de Microsoft Bill Gates et le professeur Steven Hawking, entre autres, avaient mis en garde auparavant contre le danger potentiel lié à la création d'une IA qui pourrait échapper au contrôle de l'homme.
Le président de l'Institut Max Tegmark a déclaré que son organisation ne s'occuperait pas des terribles scénarios inspirés du film Terminator.
"Le risque d'un scénario à la Terminator n'est pas que cela puisse se produire, mais le fait qu'il détourne l'attention des problèmes réels des futurs systèmes d'intelligence artificielle", déclare Max Tegmark.
Elon Musk, qui a fondé des sociétés comme Tesla Motors, PayPal et SpaceX, a fait un don de 10 millions de dollars pour ces recherches en janvier dernier.
Contenu réalisé à partir d'informations émanant de sources ouvertes