Ces systèmes sont considérés comme les aidant mains de l'homme. Pourtant, la possibilité ne peut pas être exclu que ces machines pensantes pourraient un jour nous botter le cul et prendre le contrôle de notre race. Stephen Hawking qui a critiqué le développement mal géré de AI (Intelligence Artificielle) a parlé des conséquences de la progression de AI le mois dernier à l'Université de Cambridge, où il a dit que le développement de AI peut être soit meilleur ou la pire chose jamais arrivé à l'humanité.
Ce jour-là, ce serait trop tard pour regretter et réaliser que nous avons créé un nucléaire pour l'extinction de la race humaine. DeepMind est un nom connu dans le domaine de l'intelligence artificielle. Ils ont déjà présumé ce que le système AI pourrait devenir et ils ont déjà commencé à se préparer à l'avance.
Voir Aussi: 5 Raisons Pour Lesquelles Google Allo est Mieux Que WhatsApp
Selon Business Insider, un groupe de sécurité AI est formé sous les toits DeepMind pour garder un œil sur le développement des systèmes d'intelligence artificielle Et ils s'assurent qu'il se transforme en quelque chose qui n'est pas bon pour la santé des humains.
Viktoriya Krakovna (@vkrakovna), Jan Leike (@janleike) et Pedro A. Ortega (AdaptiveAgents) sont les trois personnes qui ont récemment été nommées comme Scientifiques de Recherche au sein du groupe de sécurité de AI à DeepMind. Pas beaucoup de détails sont disponibles sur le groupe.
Krakovna est également le cofondateur de l'Institut "Future of Life" situé dans la région de Boston.
L'institut, soutenu par des noms populaires comme Morgan Freeman, Stephen Hawkings, Elon Musk, travaille à éliminer les menaces à la société humaine de AI, l'énergie nucléaire, etc.
Voir Aussi: Google, Facebook, Amazon, IBM et Microsoft joignent leurs efforts sur l'avenir de l'AI