6/11/15 – Le danger de l’IA débattu aux Nations-Unies

L’Institut de Recherche sur la Criminalité et la Justice de l’ONU (UNICRI) a organisé un colloque le 14 octobre dernier à New York sur les défis posés par l’émergence de l’Intelligence Artificielle.

Cet Institut s’intéresse en effet aux problèmes posés par l’IA sur la sécurité publique, au même titre que les menaces Nucléaire, Bactériologique et Chimique.

Deux experts ont été invités à s’exprimer devant quelques 130 délégués de 65 nations : Nick Bostrom, philosophe, fondateur du Future of Humanity Institute (FHI), et Max Tegmark, physicien, fondateur du Future of Life Institute (FLI).

L’intervention de Max Tegmark s’est attachée à démontrer pourquoi il est nécessaire de se préoccuper très soigneusement de la sécurité des systèmes d’IA avancés avant de les mettre au point. Si l’humanité s’est résignée à devoir subir quelques graves incendies avant de codifier les conditions d’emploi du feu, il n’est plus du tout question de tolérer des tâtonnements et des erreurs lorsqu’il s’agit de nucléaire, de manipulations génétiques ou d’Intelligence Artificielle. Les conséquences de notre imprévoyance peuvent en effet s’avérer très lourdes, comme Tegmark le démontre à partir de l’exemple de l’arme atomique.

Tegmark UN 14 oct 15

Bien que la bombe atomique ait été inventée en 1945, les dommages occasionnés par les retombées radioactives, l’impulsion électromagnétique ou l’hiver nucléaire n’ont été compris et considérés à leur juste proportion que plusieurs décennies plus tard. En d’autres termes, dans le cas de la bombe atomique, les « études d’impact » n’ont donc pas été menées d’une manière satisfaisante.

C’est très précisément ce qu’il faut à tout prix éviter dans le cas de l’IA, car les enjeux sont colossaux… voire existentiels, comme le souligne Nick Bostrom.

De même que l’Homme impose sa loi au Chimpanzé, avec lequel il partage pourtant 95% de son patrimoine génétique et ne s’en distingue que par quelques neurones de plus, de même une Intelligence Artificielle supérieure (ce que Bostrom nomme la Superintelligence) pourrait rapidement prendre le contrôle de nos destinées.

La question du contrôle de l’IA se pose donc avec acuité.

Or, dans son allocution, Bostrom déclare :

Il y a des scénarios plausibles dans lesquels des systèmes superintelligents deviennent très puissants. Et face à cela, il y a quelques manières apparemment plausibles de résoudre le problème du contrôle; mais ce sont là des idées qui nous viennent immédiatement à l’esprit et qui, à bien y regarder, s’avèrent inopérantes. Le problème des mécanismes de contrôle reste donc actuellement ouvert et non résolu.

Cela va devenir difficile, car en réalité il faut que nous disposions de ces mécanismes de contrôle avant de construire ces systèmes intelligents.

Pour gagner « the Wisdom Race »  (la course à la sagesse), Nick Bostrom en appelle donc à un financement plus important des programmes de recherche en sécurité de l’IA (IA Safety) et à une collaboration plus étroite de ces chercheurs avec ceux du développement (IA Development).

L’AFCIA souscrit aux analyses de Max Tegmark et Nick Bostrom. Néanmoins sa conclusion s’en éloigne significativement : plutôt que de croire présomptueusement que nous saurons maîtriser les forces que nous nous apprêtons à libérer, alors qu’il n’y a pas le début d’un consensus pour savoir comment faire, renonçons purement et simplement à les libérer.

Messieurs Bostrom et Tegmark, la vraie sagesse consiste à renoncer à l’IA !

Les exposés de Max Tegmark et Nick Bostrom sont accessibles in extenso sur le site : http://gizmodo.com/experts-warn-un-panel-about-the-dangers-of-artificial-s-1736932856