Et si l'intelligence artificielle risquait de nous détruire par accident?
Le 22/11/2019
De Stephen Hawking à Elon Musk, certains des plus grands esprits du monde dans le domaine de l'intelligence artificielle s'inquiètent du fait que l'IA représente une menace existentielle pour notre espèce.
Mais selon un nouveau livre, ce ne sont pas les robots qui prennent conscience d'eux-mêmes et se révoltent contre leurs maîtres humains qu'il faut craindre, mais les machines qui deviennent si bonnes pour poursuivre les objectifs que nous leur avons fixés, que nous finissons par être anéantis en leur fixant par inadvertance les mauvaises tâches.
Le professeur Stuart Russell de l'Université de Californie, Berkeley, est l'auteur de "Human Compatible : AI and the Problem of Control", et un expert sur les progrès rendus possibles par l'apprentissage machine.
"Le scénario hollywoodien décrit toujours la machine devient spontanément consciente et décide ensuite qu'elle déteste les êtres humains et qu'elle veut tous nous tuer", a-t-il déclaré à la BBC.
Mais les robots n'ont pas de sentiments humains, donc "ce n'est pas du tout le bon point à prendre en compte".
"Ce n'est pas vraiment une mauvaise conscience. C'est la compétence dont nous devons nous préoccuper - juste la compétence dans la poursuite d'un objectif que nous avons mal spécifié."
'Trop compétent'
Dans une interview accordée à l'émission Today de la BBC, il a donné un exemple hypothétique de la menace réelle que l'IA pourrait représenter.
Imaginez que nous disposions d'un puissant système d'IA capable de contrôler le climat de la planète et que nous voulons utiliser pour ramener les niveaux de CO2 dans notre atmosphère aux niveaux préindustriels.
"Le système se rend compte que la façon la plus simple d'y parvenir est de se débarrasser de tous les êtres humains, parce que ce sont eux qui produisent tout ce dioxyde de carbone en premier lieu ", a dit le professeur Russell.
"Et vous pourriez dire, eh bien, vous pouvez faire tout ce que vous voulez, mais vous ne pouvez pas vous débarrasser des êtres humains. Alors, que fait le système ? Ça nous convainc d'avoir moins d'enfants jusqu'à ce qu'il n'y ait plus d'êtres humains."
L'exemple sert à mettre en évidence les risques associés à l'intelligence artificielle agissant selon des instructions auxquelles les humains n'ont pas pensé.
La superintelligence
Selon le Centre d'étude du risque existentiel de l'Université de Cambridge, au Royaume-Uni, la plupart des systèmes d'IA actuels sont des applications "étroites", spécifiquement conçues pour s'attaquer à un problème bien défini dans un domaine précis.
Un moment marquant pour ce domaine est venu en 1997, lorsque l'ordinateur Deep Blue a battu le champion du monde en titre aux échecs Garry Kasparov dans un match de six parties.
Mais malgré l'exploit, Deep Blue a été spécialement conçu par les humains pour jouer aux échecs et serait perdu dans une simple partie de dames.
Ce n'est pas le cas avec les progrès ultérieurs de l'intelligence artificielle.
Le logiciel AlphaGo Zero, par exemple, a atteint un niveau de performance surhumain après seulement trois jours de jeu Go contre lui-même.
Utilisant l'apprentissage profond, une méthode d'apprentissage machine qui utilise des réseaux neuronaux artificiels, AlphaGo Zero a exigé beaucoup moins de programmation humaine et s'est avéré être un très bon joueur de Go, d'échecs et de shogi.
Ce qui est peut-être alarmant, c'est qu'il était entièrement autodidacte.
"Au fur et à mesure qu'un système d'IA devient plus puissant et plus général, il peut devenir super-intelligent - supérieur à la performance humaine dans de nombreux ou presque tous les domaines ", explique le Centre des risques existentiels.
Et c'est pourquoi, selon le professeur Russell, les humains doivent reprendre le contrôle.
Bbc