Dans un article pour le magazine américain Science (édition du 17/07/15), Stuart Russell compare l’Intelligence Artificielle à l’arme atomique. L’une et l’autre invention pourraient selon lui avoir des conséquences désastreuses.
Stuart Russell, chercheur à l’Université de Berkeley, n’est pas un dilettante. C’est une figure très connue et respectée dans le domaine, auteur en 1994 du manuel de référence « Artificial Intelligence : A Modern Approach ».
Extraits de ses propos (notre traduction) :
Les scénarios catastrophes peuvent être multiples et complexes, allant des entreprises en quête d’un super-avantage technologique, aux Etats cherchant à créer des systèmes IA avant leurs ennemis, ou encore une évolution à petit feu vers une situation de dépendance et d’incapacité comme celle décrite par l’écrivain E.M. Forster dans The Machine Stops (1).
[…] A ceux qui disent : « après tout, il se pourrait que l’on ne parvienne jamais au stade de l’Intelligence Artificielle de niveau humain ou supra-humain », je répondrais que c’est comme foncer à toute allure vers une falaise en se disant « pourvu qu’on tombe bientôt en panne sèche ! »
[…] La réglementation des armes nucléaires concerne des objets et des matières fissiles, alors qu’avec l’IA on a affaire à une multiplicité déconcertante de logiciels qu’il est encore impossible de décrire. A ce que je sache, il n’existe à l’heure actuelle aucun mouvement significatif réclamant une réglementation de l’IA, que ce soit à l’intérieur ou à l’extérieur des milieux de la recherche, tout simplement parce qu’on ne sait pas comment écrire cette réglementation.
Nous devons nous détourner du cap actuel qui est de créer de l’Intelligence Artificielle pour le plaisir de créer de l’Intelligence Artificielle, sans nous préoccuper des résultats obtenus en chemin et de leurs conséquences.
(1) Dans ce livre de 1909, Forster dépeint un monde post-apocalyptique dans lequel les humains vivent sous terre, dans des cellules isolées, sous la dépendance totale d’une Machine omnipotente. (NDLR)
En savoir plus sur AFCIA
Subscribe to get the latest posts sent to your email.