Risque technologique

i-intro-bostrom

En 2014, Stephen Hawking et quelques autres lançaient un avertissement très médiatisé : « Il est tentant de rejeter la notion de machines ultra intelligentes dans le domaine de la pure science-fiction. Mais cela serait une erreur, peut-être notre plus grande erreur. […] On peut imaginer une technologie qui se révèle plus ingénieuse que les marchés financiers, plus créative que les chercheurs, plus manipulatrice que les hommes politiques, capable de mettre au point des armes que nous ne pourrions pas même comprendre. Tandis qu’à court terme l’impact de l’IA dépend de qui la contrôle, à long terme cet impact dépendra de savoir si on pourra tout bonnement la contrôler. »

 

Comment être sûrs que les créations artificielles ne prennent pas le pas sur leurs créateurs ? Ce thème, que nous avons appelé le risque technologique, par analogie avec les industries nucléaires ou chimiques, ou la recherche sur les virus dangereux, recouvre l’analyse des « accidents » possibles.

Pour l’instant, la question du contrôle est plus théorique que pratique, car il n’existe pas d’IA assez puissante pour faire courir un risque significatif à ses concepteurs. Pourtant, le philosophe Nick Bostrom (photo) montre bien qu’il est vital de résoudre le problème avant de réussir la mise au point d’une IA susceptible d’être nuisible.

Plus d’autonomie égale moins de contrôle

Le deuxième risque est celui d’une prise de contrôle par les machines qui serait consentie par les humains. Ceux-ci leur abandonneraient la gestion de l’économie et de l’administration, car ils ne seraient plus en mesure d’en maîtriser eux-mêmes la complexité. Il s’agit d’une sorte de prise de pouvoir « rampante » et indolore.

Une prise de contrôle tout en douceur

A ces deux éventualités, certains opposent une parade élégante : pour être sûrs de ne pas être dépassés par des robots, il suffit de devenir nous-mêmes des robots, en nous dotant de leurs attributs.

Homme + machine = machine