« L’Eglise n’est pas muette… »

Ingénieur, catholique, consultant en éthique des affaires et travaillant sur l’éthique numérique dans le cadre du think tank Espérance & Algorithmes créé par Etienne de Roquigny, Laurent Barthélémy a souhaité nous faire part de ses commentaires sur le livre de Marie David et Cédric Sauviat « Intelligence artificielle, la nouvelle barbarie » (Editions du Rocher, 2019)

Interpellé par le passage sur la vision de l’IA et des mégadonnées par l’Eglise catholique (pp.283 et suivantes), j’ai fourni aux auteurs quelques commentaires et éléments d’information complémentaires, que je développe ici.

1. Pour ce qui est de la contribution du catholicisme, ce qu’on appelle Doctrine sociale de l’Eglise, je trouve leurs propos à la fois encourageants (pour le catholicisme) et un peu sévères.

1.1 Encourageants parce que le catholicisme romain est la seule religion convoquée comme témoin à la barre du procès de l’IA (sauf très rapidement le shintoïsme à propos des tamaguchi). C’est flatteur, soit parce que les auteurs en attendent beaucoup, soit parce que les autres religions n’ont pas grand’chose à dire sur ce sujet (je suis peut-être un peu injuste pour le judaïsme, mais on attend tout de même autre chose que des articles brillants mais dispersés).

Plus sérieusement, Rome a en effet pris l’habitude depuis le XVIIIème siècle de prendre position sur les aspects religieux et moraux des problèmes du temps, mêmes temporels et profanes.

Dès 1745 Benoît XIV résume, dans l’encyclique sur les contrats et l’usure Vix pervenit, la doctrine thomiste qui privilégie l’association en société (affectio societatis) au prêt d’argent impersonnel et de surcroît usuraire. C’est le coup d’envoi de la doctrine sociale de l’Eglise, qui est plus facile à manier par le commun des mortels que la doctrine thomiste, même si cette dernière a traité du sujet (et n’a sans doute pas dit son dernier mot, y compris sur la pensée humaine et la pensée artificielle). Tout le monde connaît ensuite :

Rerum Novarum de Léon XIII sur la condition ouvrière et les garde-fous à mettre au capitalisme (le socialisme était récusé sans appel. Léon XIII est le seul avec Marx à avoir apporté une pensée structurée sur la question ouvrière, n’en déplaise aux disciples de Proudhon et Sorel) ;

Quadragesimo Anno de Pie XI en 1931 sur le capitalisme financier et la crise de 1929 ;

Mater & Magistra de Jean XXIII, Octogesimo Anno de Paul VI sur la mondialisation (déjà) ;

Centesimo Anno/Laborem Exercens/ Sollicitudo Rei Socialis de Jean-Paul II qui revient sur le capitalisme et ses excès possibles après la chute du socialisme ;

Caritas in Veritate de Benoît XVI, qui aborde les dérives financières du capitalisme (crise de 2008) et commence un peu à s’occuper d’environnement et de développement durable;

Evangelii Gaudium et surtout Laudato Si de François sur l’écologie…

Bref, selon l’heureuse formule de Benoît XVI, « La doctrine sociale de l’Église éclaire d’une lumière qui ne change pas les problèmes toujours nouveaux qui surgissent » (Caritas in Veritate, n° 12).

Il est donc normal d’attendre de Rome quelque chose qui se tienne sur l’IA, ou même plus largement la numérisation de la société et même la numérisation de l’économie.

Je crains toutefois qu’il ne soit audacieux d’écrire, comme le fait le livre, que Laudato Si condamne sans appel l’IA « en tant que projet et en tant que système ». François condamne à l’emporte-pièce et sans nuance les dérives financières et hyperlibérales, mais pas le capitalisme en tant que tel. Cela s’applique à mon avis de la même façon à l’usage malveillant de l’IA ou simplement à des fins d’accumulation frénétique de capital (ce qu’Aristote appelait la chrématistique pour la distinguer de l’économie, qui, elle, est au service de l’homme).

1.2 Un peu sévères parce que, contrairement à ce qui est écrit, l’Eglise catholique n’est pas muette à ce stade sur la question de l’IA, et, pour avoir étudié d’assez près la littérature ouverte sur l’éthique de l’IA (y compris le rapport Villani, celui bien meilleur de la CNIL et pas mal d’autres), je pense qu’elle n’a pas à rougir des quelques pages qu’elle a pu commettre sur le sujet, comparativement au courant humaniste, à la franc-maçonnerie qui cogite beaucoup sur le sujet, au protestantisme, au judaïsme, aux universités islamiques qui depuis quelques années travaillent dur pour élaborer une doctrine sociale (par exemple Mushin Mahdi publié en français par l’Institut du monde arabe ; ou dans la sphère anglophone Heydar Shadi, ou https://www.islamicity.org/values ou https://www.al-islam.org)  dans une optique radicalement différente puisque l’Islam est par nature englobant et théocratique et ignore la laïcité, du moins dans l’Oumma).

Voici plusieurs exemples illustrant une véritable préoccupation de l’Eglise pour l’IA:

En décembre 2016, s’est tenue au Vatican une conférence intitulée dans un latin irréprochable “ Power and Limits of Artificial Intelligence”.

L’académie Centesimus Annus a diffusé en 2018 les actes d’un colloque “Catholic Social Teaching in action: Facing the Challenges of Digital Age

L’Académie Pontificale pour la Vie a tenu un séminaire en février 2019 sur la robo-éthique dont on attend d’ailleurs la publication des actes.

Le Père Salobir, dominicain, président fondateur d’OPTIC – Ordre des Prêcheurs pour les Technologies, l’Information et la Communication- créé en 2012 – a lancé de nombreuses initiatives sur le numérique et l’IA.

La COMECE (Commission des Episcopats de la Communauté Européenne) a diffusé un texte en janvier 2019 sur “La robotisation de la vie”.

L’Eglise Catholique de Paris a publié en 2018 deux fiches dans le contexte des débats bioéthiques nationaux, l’une sur l’intelligence artificielle et l’autre document sur les mégadonnées

1.3 En conclusion Les auteurs le soulignent avec raison, même si l’Eglise catholique a jusqu’à présent l’habitude de tourner sept fois sa plume dans l’encrier avant de s’exprimer sur les questions sociales ou économiques de l’époque, il devient maintenant urgent qu’elle fasse entendre sa voix sur le « numérique » et sur l’IA dans la mesure où cette dernière a directement à voir avec l’anthropologie (catholique en l’occurrence) et avec la sociologie. Sur un enjeu tel que l’utilisation massive des algorithmes dans la vie sociale et économique, il y a effectivement matière à une encyclique ou quelque chose d’approchant. Et à une formation minimum des prêtres sur ces sujets. Il en va de la place et de la valeur de l’être humain dans la Création, capax Dei comme le résume saint Augustin, au-dessus des animaux et a fortiori au-dessus des machines ou des idoles.

Permettez-moi de terminer avec quelques commentaires généraux sur « Intelligence Artificielle, la nouvelle barbarie » :

2.  Il me semble que la page 62 résume bien le livre (sans compter ses nombreux aspects didactiques, qui mêlent réflexions personnelles ou à deux voix, et bibliographie approfondie) :

 « En fait, et c’est la thèse de ce livre, les problèmes que pose l’intelligence artificielle ne sont absolument pas liés, comme le fait croire la Silicon Valley, à l’émergence d’une intelligence artificielle forte. L’invasion de notre quotidien par des algorithmes qui s’insinuent dans de multiples domaines, l’anthropomorphisation de la technique, et le changement de rapports [humains] qui s’ensuit posent des questions fondamentales. Une grande partie de notre capacité à vivre des expériences humaines s’érode déjà dangereusement. Les problèmes théoriques dénoncés par un Elon Musk [ou un Stephen Hawking ou un Bill Gates] masquent la domination des produits de la Silicon Valley ainsi que leurs effets pernicieux dans nos vies. »

Les [ ] sont de moi.

A quoi j’ajouterai tout de même l’utilisation délibérément malfaisante de l’IA (cyberattaques, SALA= systèmes d’armes létaux autonomes…)

A propos des SALA : au début du XXème siècle, l’Amirauté britannique a refusé de concevoir et de construire des sous-marins (malgré les inventions de Bushnell, Fulton… dans le monde anglo-saxon) au motif que c’était une arme de voyous et non de gentlemen… Ce n’était pas faux à l’époque et même pendant WWII, mais les Britanniques ont fini par s’y mettre, faisant de nécessité stratégique, vertu militaire. On verra s’il en est de même pour les SALA et pas seulement en Grande-Bretagne.

3. Les passages sur : haine du corps, haine du temps, haine de l’incarnation, haine du risque m’ont paru bien vu et font effectivement écho à une tendance ancestrale de l’esprit humain : la Gnose, liée au manichéisme et à ses dérivés (catharisme etc.) L’âme seule est bonne, engluée dans la matière qui elle a été créée par un dieu mauvais, le corps est mauvais, il faut pour s’en sortir acquérir des connaissances et des pratiques réservées à une élite (ésotérisme), bref le contraire du christianisme.

4. Ingénieur moi-même, je ne suis pas franchement convaincu par le fait que la « neutralité de la technique » soit juste un mantra d’ingénieur (p.142 par exemple). N’en déplaise à Ellul, Heidegger, Anders et quelques autres, je pense qu’un ingénieur normalement constitué est parfaitement conscient de la finalité de ce qu’il conçoit/réalise/exploite, que ce soit en médecine nucléaire ou en armement nucléaire, en utilisation de la chimie ou de la biologie à des fins thérapeutiques ou de destruction massive de vies humaines etc. Il me semble que ce qu’il y a derrière ce débat c’est la question de la morale des actes humains: nature de l’acte, advertance (conscience ou pas de ce qu’on fait, délibérément et avec obstination ou pas), finalité et circonstances. Il est d’ailleurs intéressant de voir comme la casuistique si critiquée (à juste titre du fait de ses excès, à tort du fait de sa logique) revient en force dans l’éthique de l’IA…

5. « Dans la relation humaine il y a engagement réciproque de subjectivités. » (tout le chapitre 10 « Imitation Games »). Bien vu. Le terme « pensée artificielle » couvrirait d’ailleurs mieux le sujet que celui d' »intelligence artificielle ». Mais c’est un autre livre, qui traiterait d’intuition, de réflexivité, de relation au réel, capacité d’abstraction, des autres puissances de l’âme, du rêve, de la fabrication mentale des images pour nourrir la raison, des universaux et du nominalisme (vieux débat) …

Quid du langage et de la délibération entre personnes pour préparer une décision ?

6. Le passage p.98 sur le double pouvoir des GAFAM et des BATX m’a paru très éclairant: Amazon/AWS, Google Cloud et Azure fournisseurs privilégiés (oligopolistiques) d’infrastructures d’IA et de machine learning et pas seulement utilisateurs massifs d’algorithmes dont ils détiennent les clés.

7. Un point important également, bien mis en évidence par David et Sauviat :  le « back office » des entreprises est probablement plus vulnérable à l’IA (Robotic Process Information et AI) que le « front office ».

8. Page 159 « Le progrès technique procède par améliorations incrémentales plutôt que par ruptures » : discutable à mon avis. Le nucléaire, la miniaturisation de l’électronique, les découvertes médicales etc. sont plutôt des ruptures ? Demain l’ordinateur quantique, l’anti-gravitation quand on y arrivera… L’impression 3D me paraît être une rupture, de même que le sera (ou l’est déjà ?) l’usine délocalisée et déserte du futur à cause du numérique.

9. Des passages très intéressants sur la difficulté à contester le « jugement » de la machine si son « raisonnement » n’est pas explicable, du fait qu’elle est réputée plus fiable, car pouvant brasser davantage d’informations, sans rien oublier, sans émotion, sans préjugés (à part ceux qu’on y a introduits), sans biais (à part ceux qu’on y a introduits), sans se tromper.

10.  On s’attendrait à ce qu’après avoir précisé ce qu’on entend par « humanisme » (au-delà de la définition très large p.278), on nous propose une grille d’appréciation de ce que devrait être une IA éthique selon cette vision humaniste (qui n’est visiblement ni celle d’Asilomar ni celle du christianisme). J’ai lu récemment (je ne sais plus où !) que l’humanisme c’est « En avant, pour la plus grande gloire de l’homme » et le christianisme c’est « En haut, pour la plus grande gloire de Dieu ». Quant à Asilomar et aux autres « chartes éthiques de l’IA » des GAFAM, je laisse le soin aux experts de les qualifier. « Tous connectés et supervisés, pour la plus grande gloire de qui ? »

Laurent Barthélémy, consultant en éthique des affaires

www.hyperionlbc.com contact@hyperionlbc.com

Intelligence Artificielle. La nouvelle barbarie

En 1987, Michel Henry dénonçait le divorce entre la science et la culture dans un essai retentissant, « La Barbarie » (PUF, 1987).

La « culture » moderne, disait-il, ne prétend pas seulement réduire toute forme de savoir à celui de la science et ainsi toute culture à une culture scientifique, elle étend au monde et aux sociétés tout entières l’autonégation de la vie en laquelle se résout son projet aberrant.

Un peu plus de trente ans ont passé, l’idéologie mortifère de la technoscience a continué ses ravages et elle met aujourd’hui au point, à plein régime, sa dernière création dirigée contre l’Homme : l’Intelligence Artificielle.

C’est donc en hommage au philosophe français que Marie David et Cédric Sauviat ont intitulé leur réquisitoire, qui paraît actuellement aux éditions du Rocher, « IA. La nouvelle Barbarie. »

Tout en expliquant clairement l’évolution des diverses technologies, cet ouvrage dissèque les défis que la machine lance aujourd’hui à l’Homme et s’inscrit en faux contre le discours dominant : Non, l’Intelligence artificielle n’est pas un progrès « comme les autres », un « sens de l’Histoire » irrévocable.

Le public curieux fera son profit de ce petit livre qui ose prendre clairement position dans un débat que les promoteurs du progrès algorithmique et de la « culture start-up », avec l’aide des grandes institutions publiques, s’efforcent par tous les moyens d’escamoter.

Les professionnels de l’Ethique des affaires y trouveront également une illustration de ce à quoi les « Chartes Ethiques » ne devraient pas ressembler.

Au sommaire :

1 – Origine et histoire de l’intelligence artificielle

2 – La grande hypocrisie

3 – Le progrès comme religion

4 – La dépossession de nous-mêmes

5 – Ethique

 

Les auteurs

Marie David, polytechnicienne, a dirigé plusieurs équipes dédiées au Big Data et à l’IA dans le secteur de la banque et de l’assurance.

Cédric Sauviat, polytechnicien, milite depuis plusieurs années pour l’émergence d’un débat sur les conséquences de l’intelligence artificielle.

 

7èmes Assises de Technologos : 27-28 septembre 2019

Technique débridée, politique étouffé ?

Qu’en est-il de la relation entre la technique et le politique ?

Tel sera le thème des 7 èmes Assises de l’association Technologos, qui se tiendront :

les vendredi 27 et samedi 28 septembre prochains

à l’Institut de Paléontologie Humaine,

1 rue René Panhard 75013 PARIS (entrée libre).

Le déferlement technique qui caractérise notre époque déborde partout, au point d’étouffer le politique, non seulement lors de sa manifestation électorale, mais aussi dans toutes les activités relevant de la gestion de la cité.

Trois thèmes de réflexion et d’échanges :

Vendredi

  • Que produit l’infiltration du technique dans l’organisation socio-politique ?
  • Comment s’imposent les innovations techniques dans notre société ?

Samedi matin

  • Comment lutter contre l’emprise de la technique sur le politique ?

 

Pour en savoir plus sur Technologos

Pour plus de détails sur les Assises 2019

« L’IA ou l’enjeu du siècle » : Eric Sadin dénonce une offensive antihumaniste radicale

Après la « Silicolonisation du monde » (L’Echappée, 2016), le philosophe Eric Sadin explore le phénomène de l’Intelligence Artificielle dans un essai paru le 18 octobre 2018 : « L’intelligence artificielle ou l’Enjeu du siècle – Anatomie d’un antihumanisme radical » (L’Echappée)

C’est l’obsession de l’époque. Entreprises, politiques, chercheurs… ne jurent que par elle, car elle laisse entrevoir des perspectives économiques illimitées ainsi que l’émergence d’un monde partout sécurisé, optimisé et fluidifié. L’objet de cet enivrement, c’est l’intelligence artificielle.

Elle génère pléthore de discours qui occultent sa principale fonction: énoncer la vérité. Elle se dresse comme une puissance habilitée à expertiser le réel de façon plus fiable que nous-mêmes. L’intelligence artificielle est appelée, du haut de son autorité, à imposer sa loi, orientant la conduite des affaires humaines. Désormais, une technologie revêt un « pouvoir injonctif » entraînant l’éradication progressive des principes juridico-politiques qui nous fondent, soit le libre exercice de notre faculté de jugement et d’action.

Chaque énonciation de la vérité vise à générer quantité d’actions tout au long de notre quotidien, faisant émerger une « main invisible automatisée », où le moindre phénomène du réel se trouve analysé en vue d’être monétisé ou orienté à des fins utilitaristes.

Il s’avère impératif de s’opposer à cette offensive antihumaniste et de faire valoir, contre une rationalité normative promettant la perfection supposée en toute chose, des formes de rationalité fondées sur la pluralité des êtres et l’incertitude inhérente à la vie. Tel est l’enjeu politique majeur de notre temps.

Ce livre procède à une anatomie au scalpel de l’intelligence artificielle, de son histoire, de ses caractéristiques, de ses domaines d’application, des intérêts en jeu, et constitue un appel à privilégier des modes d’existence fondées sur de tout autres aspirations.

 

L’opposition à l’IA aux Etats-Unis

Nous avons reçu dernièrement un message de Peter Lumsdaine, fondateur de l’ARROWS – Alliance to Resist Robotic Warfare and Society – et habitant de Seattle.

Peter nous informe que son association cherche à sensibiliser le public aux dangers de l’IA, et que c’est avec un grand plaisir qu’elle a appris, au cours de recherches sur Internet, l’existence de l’AFCIA.

Peter est engagé notamment dans la dénonciation des drones et autres armes autonomes, dont il a personnellement pu constater les méfaits lors de plusieurs déplacements dans des pays en guerre. Nous publions ci-dessous l’article, paru dans le Times en avril 2015, dans lequel il évoque la Conférence de Princeton de février 2015 sur les armes autonomes.

 

Lors de mon voyage de Seattle au New Jersey pour participer à la première Conférence Interconfessionnelle sur les Drones militaires qui avait lieu à l’Université de Princeton, j’étais constamment hanté par les souvenirs de mes précédentes visites dans des zones de guerre du Mexique et d’Irak. Dans les allées enneigées de Princeton, mes pensées s’échappaient sans cesse vers les villages de sable de la Sierra Madre, les étroites ruelles de Nadjaf ou les sinistres taudis en béton de Bagdad-Est.

Lorsque nous nous rendîmes dans les communautés chiites, sunnites et chrétiennes de l’Irak en guerre, mon épouse Meg – qui est pasteure mennonite – et moi-même, fûmes tous deux frappés par la vivacité de leurs traditions culturelles ancestrales. Pourtant, l’ère de la guerre robotique, dont nous ignorions tout alors, avait déjà débarqué en Mésopotamie, sous forme de robots terrestres rôdant dans les rues en terre battue et les arrière-cours,  et de drones tournoyant dans le ciel du désert à la recherche de cibles. Ces derniers furent bientôt suivis par les Predator, ces drones américains sans pilote qui lancèrent leurs missiles Hellfire sur les quartiers délabrés des rebelles chiites – bien que ceux-ci comptassent alors parmi les adversaires les plus résolus d’Al-Qaida et de l’Etat Islamique au Moyen-Orient.

A la Conférence nationale, en février 2015, cent cinquante délégués chrétiens, juifs, musulmans et sikhs firent l’état des lieux de la guerre de drones et débattirent des problèmes moraux que pose cette forme radicalement nouvelle de tuerie high-tech qui se répand actuellement sur la planète, dans une course aux armements robotiques toujours plus nombreux, mortels et autonomes.

Le Bureau du Journalisme d’Investigation, une ONG connue pour son impartialité et sa rigueur, dénombre 2866 personnes tuées par des frappes de drones américains dans les seuls pays du Pakistan et du Yémen, dont plus de 481 civils non-combattants, parmi lesquels au moins 176 enfants. 2% seulement de ces 2866 tués étaient des activistes à forte valeur stratégique. Par ailleurs, le Centre d’Etudes et d’Analyses Navales montre qu’en Afghanistan, les drones ont dix fois plus de chance de tuer des civils que les avions à pilote.

Lorsque l’on parle de combattants à pied déguenillés, de familles civiles ou d’enfants touchés par des missiles Hellfire de Lochkheed Martin tirés par des drones en embuscade, on a tendance à oublier que cela veut dire des individus éventrés par des éclats de shrapnel ou brûlés vifs par le feu des explosifs. Les survivants s’en tirent souvent avec des mutilations horribles et des souffrances sans remède.

Une « Guerre contre le Terrorisme » menée par la terreur venue du ciel est une absurdité et un échec moral absolu.

C’est aussi une impasse, d’un point de vue tactique, parce qu’elle nous fabrique des ennemis inexpiables plus vite qu’elle ne les élimine.

C’est pourquoi les responsables des différentes confessions qui se sont assemblées à Princeton ont appelé le gouvernement américain à cesser immédiatement l’usage des drones armés et des drones tueurs.

Les frappes de drones constituent seulement un tout petit aperçu de la guerre robotique qui risque de se généraliser dans notre « meilleur des mondes » du vingt-et-unième siècle, si nous laissons les tendances actuelles perdurer et même s’accélérer. Déjà, au sein même des Etats-Unis, les drones participent de la surveillance gouvernementale au titre de la sécurité intérieure. Les dollars du contribuable américain servent à subventionner la surveillance par drones mise en place par des gouvernements corrompus au Mexique et en Colombie où, derrière le paravent de la lutte contre le narco-trafic, elle facilite la répression de l’agitation paysanne et de la résistance locale au pillage des ressources minières par les conglomérats.

Pour Denise Garcia, professeur de Relations Internationales à la Northeastern University de Boston, les drones et robots terrestres actuels sont les « précurseurs des nanobots et autres humanoïdes tueurs dans le style de Terminator ». C’est pourquoi la conférence de Princeton a appelé à interdire en urgence, et au niveau mondial, les armes autonomes et semiautonomes, telles que le prototype X-45 de Boeing.

Du physicien Stephen Hawking à l’informaticien Bill Joy, de nombreux experts affirment que si l’Intelligence Artificielle poursuit son développement, elle pourrait rapidement sortir du contrôle humain. Le fondateur de Tesla, Elon Musk, qualifie quant à lui le développement de l’IA d’« invocation du Démon ».

Nous devrions garder en mémoire ce discours prophétique de Martin Luther King contre la guerre du Vietnam, en 1967 :

« Lorsque les machines et les ordinateurs, les profits et les droits de propriété sont considérés comme plus importants que les hommes, les trois hydres que sont le Racisme, le Matérialisme et le Militarisme sont invincibles.

La décision nous appartient. Et même si nous préférerions ne pas avoir à le faire, c’est pourtant bien à nous de décider en ce moment crucial de l’histoire humaine. »

 

Nous nous réjouissons de ces premiers contacts avec nos amis d’Outre-Atlantique, qui préludent à la constitution d’un réseau international de lutte contre l’Intelligence Artificielle.

 

 

 

 

Des drones tueurs et des crêpes

Nous avions évoqué, il y a un peu plus de deux ans, les avertissements de l’informaticien Stuart Russell et du physicien Max Tegmark.

Ces personnalités, toutes deux membres du Future of Life Institute américain, ont réitéré devant l’ONU leur pressant appel à l’interdiction des armes autonomes. Afin de rendre leurs arguments plus frappants, ils ont réalisé une vidéo de réalité-fiction très impressionnante.

Dans ce clip de sept minutes, on assiste à une série d’événements et de reportages télévisés montrant comment, en quelques mois, l’invention de drones tueurs à reconnaissance faciale par une entreprise d’armement plonge le monde dans la terreur.

S’il s’agit bien de fiction, les technologies mises en scène existent d’ores et déjà, hormis leur miniaturisation (à moins que les armées américaine, russe ou chinoise ne disposent déjà secrètement de telles armes, allez savoir…)

Pour visionner la vidéo « Slaughterbots », rendez-vous sur le site du Future of Life Institute, ICI

Impressionnant, n’est-ce-pas ?

Pourtant, la conclusion tirée par Stuart Russell et ses amis nous semble quelque peu incongrue. Interdire les armes autonomes ? A quoi bon, si tous les éléments qui servent à les fabriquer sont en vente libre : IA de pilotage, IA de reconnaissance faciale, drones, explosifs, etc… ?

C’est comme si on distribuait à toute la population de la farine, du lait et des œufs à gogo en lui interdisant avec la plus grande fermeté de faire des crêpes !!

La seule, l’unique conclusion logique que les hommes sensés devraient tirer de telles considérations – et de nombreuses autres que nous ne cessons de mettre en lumière jour après jour – c’est que c’est l’IA elle-même qui pose problème. C’est elle qu’il faut interdire.

Mais à l’AFCIA, nous ne sommes pas inquiets : cette évidence s’imposera bientôt à tous, il ne peut en être autrement.

7/03/18 – « Cher Cédric Villani, je t’écris pour te dire …

… que ton interview dans L’OBS de cette semaine (1er mars 2018) m’a convaincu de ta clairvoyance au sujet de l’Intelligence Artificielle. C’est bien le moins qu’on pouvait attendre de la part de quelqu’un capable d’apprivoiser la lumière (tu me diras comment tu fais, parce que moi ça fait trois fois que je me brûle les doigts avec des allumettes) !

J’ai bien l’intention de m’inspirer de tes propos pour mon TPE de physique+économie (ah oui, j’ai oublié de te préciser que je suis élève en Première). Voici les extraits que je préfère :

Sur la diffusion de l’IA

L’IA sera partout, comme l’électricité.

Youpi ! Je me réjouis par avance d’être entouré d’yeux et d’oreilles partout où j’irai. Nos ancêtres animistes croyaient que le monde était plein d’esprits, la technologie va leur donner raison !

 

Sur l’explosion de l’IA et le progrès fulgurant de la puissance de calcul informatique 

Tout le monde a été pris par surprise. La puissance de calcul a joué, ainsi que les progrès en mathématique algorithmique. Les gigantesques bases de données ont donné un nouvel envol aux méthodes d’apprentissage « statistique », qui permettent aux machines d’apprendre à partir d’exemples. Encore plus inattendu : les « réseaux de neurones », qu’on croyait morts et enterrés, ont montré que finalement ils fonctionnaient. Il a suffi de quelques années pour qu’on change complètement d’opinion à leur sujet. Il n’y a pas beaucoup de coups de théâtre comme ça dans le domaine de l’informatique. Cette nouvelle donne de l’IA a tout bousculé, dans les applications comme dans les sciences.

Non Cédric ! Ne me dis pas que toi aussi tu as été surpris ! Tu aurais donc complètement changé d’avis ? Heureusement, ce sera bien la dernière fois. Désormais, je suis sûr que toutes tes prédictions se réaliseront, et tu ne seras plus jamais pris en défaut, notamment quand tu dis que la naissance d’une IA forte menaçant à terme l’existence même de l’humanité, c’est « de la science-fiction ! » et quand tu dis que « la conscience, l’autonomie et même le simple bon sens sont très très loin de ce que l’IA sait faire » et aussi quand tu dis qu’ « il y a des pièges et des dangers dans l’IA, mais ils ne sont pas là.»

 

Des vies sauvées par milliers !

Il ne fait pas de doute pour moi que des vies seront sauvées par l’IA. […] Parmi nos interlocuteurs dans l’administration, ceux du ministère de la Défense étaient les plus convaincus de l’urgence de l’IA.

Tu sais Cédric, c’est sans doute parce qu’ils savent que les Etats belliqueux et les terroristes (cyber ou non) ont la ferme intention d’utiliser l’IA pour sauver des vies, et qu’ils ne veulent pas être en reste.

 

De nouveaux métiers en émergence

Concepteur et vérificateur de base de données, par exemple, car la qualité des données sur lesquelles on éduque un système informatique est fondamentale. […] Il va aussi y avoir des métiers liés à la bonne ergonomie, au partage des rôles entre l’employé et l’algorithme. Il va certainement apparaître toutes sortes de métiers liés aux tests, au développement, à l’accompagnement de la transformation pas l’IA. […] Ensuite, au fur et à mesure que l’on automatise, il y a une autre catégorie de métiers – notamment dans l’éducation, dans la santé, le soin aux personnes âgées – où l’on aura besoin de qualités vraiment humaines, de lien social, de relation, d’empathie… Problème : personne ne sait à quelle vitesse cette mutation va s’effectuer.

Génial ! J’ai toujours rêvé de devenir éducateur de système informatique ! Mais sinon, je veux bien être ergonomiste-entremetteur pour humains et algorithmes, ou bien accompagnateur-testeur pour entreprise en voie de transformation. Et que l’on ne me dise pas que ce sont des métiers « à la con » ! Rien n’est plus noble que le métier de mouche du coche numérique, car comme tu le dis si bien, Cédric, « de toute façon, on a besoin de travail pour se réaliser, se sentir utile. »

Quant à ma petite sœur, elle préfère mettre en pratique ses qualités vraiment humaines avec des personnes âgées, elle veut devenir infirmière. Le problème c’est qu’elle est moins patiente avec les vieux qu’un robot ! Se pourrait-il que les robots aient plus de talent pour les qualités humaines que les hommes ?

 

Voilà, j’espère que ton rapport définitif va sortir bientôt, j’en aurai besoin pour terminer mon TPE. En attendant, je me plonge dans la lecture (rébarbative, celle-là) d’un rapport écrit par de vrais rabat-joie : « The Malicious Use of Artificial Intelligence »! (De l’Usage Malveillant de l’Intelligence Artificielle). Figure-toi que ces cocos-là me feraient presque flipper si je n’avais pas lu ton interview !

Alexandre, 1ère ES 8, Lycée Lepoil d’Enlbon, Sens

 

Périlleuse technolâtrie

Que les individus soient en perte de repères dans un monde déboussolé, c’est à fois un cliché et un constat certainement globalement juste. Mais il est un vieux repère de la modernité qui a résisté contre vents et marées et constituera peut-être l’ultime d’entre eux : l’enthousiasme, la foi, voire la vénération pour l’évolution technique, qui prend aujourd’hui la forme des technologies numériques. Propagé par les politiques, les économistes et les médias, cet optimisme technologique (ou technoptimisme) nous aveugle et nous empêche de prendre la mesure des conséquences humaines et écologiques du déferlement numérique et robotique qui saisit l’humanité depuis une vingtaine d’années.

Selon Bertrand Méheust, nous sommes face à un « nouvel âge de l’esprit » que plus rien ne pourra arrêter sur sa lancée… sauf un effondrement de la mégamachine (ce qui ne saurait tarder). Savoir que tout cela se terminera un jour ne nous prémunit pas hic et nunc contre la dangereuse mutation anthropologique que cela implique, même si l’on fait partie – ce qui est mon cas – des derniers réfractaires du smartphone, condamnés à vivre avec amertume l’évanouissement à marche forcée d’un monde qui nous était jusqu’il y a peu familier. L’économie numérique représente bien une rupture majeure, et il serait vain de vouloir nous comparer aux époques antérieures. Rien de cyclique ici, sous le soleil de l’innovation, rien que du nouveau, comme l’on bien vu les camarades de Pièces et main d’œuvre. Entre fantasme et réalité, le transhumanisme, l’extropianisme et la singularité technologique représentent les bonheurs et accomplissements que nous promettent les techno-prophètes dans le courant de ce siècle. Pour ce, ils peuvent compter sur l’appui des « progressistes » de gauche comme de droite, qui voient dans toute extension des droits individuels des bienfaits que seuls des réactionnaires pourraient critiquer, même si ces droits passent de plus en plus par le truchement de la technoscience, comme, par exemple, les nouvelles techniques de procréation. Que faire ? D’abord décréter un moratoire sur l’innovation incontrôlée, puis organiser une désescalade technique, voilà une condition nécessaire pour reconstruire la cohésion sociale dans une société qui se voudrait démocratique, écologique et décente.

L’actualité des livres vient à la rescousse.

Dans Seuls ensemble. De plus en plus de technologies, de moins en moins de relations humaines (éd. L’Echappée, 2015), la psychologue et anthropologue du MIT Sherry Turkle (née en 1948) a étudié l’impact des nouvelles technologies en Intelligence Artificielle sur la « façon dont nous nous pensons, dont nous pensons nos relations avec autrui et le sens de notre humanité » (p.20). Pour ce, elle s’est appuyée sur deux cent cinquante observations cliniques, principalement d’enfants, d’adolescents et de personnes âgées.

La première partie traite de leur rapport avec les robots – aux doux noms de Tamagochis, Furby, AIBO, My Real Baby, etc… – pour constater la facilité avec laquelle nous projetons sur eux nos sentiments et avons des attentes démesurées sur ce qu’ils pourraient nous apporter en terme d’aide, mais aussi de réconfort, d’amitié et même de sexualité !

D’une part, la notion d’authenticité perd de sa substance au profit d’une nouvelle définition de la vie « à mi-chemin entre le programme inanimé et la créature vivante » (p.61). D’autre part, les êtres humains sont remis en cause dans leur capacité à prendre soin les uns des autres. Les robots, « nous sommes aujourd’hui prêts, émotionnellement et je dirais même philosophiquement, à les accueillir » (p.31). Ces « créatures » robotiques sont traitées comme des égaux et non plus comme des machines, elles sont placées sur le terrain du sens, « alors qu’elles n’en dégagent aucun. » Elles sont de plus en plus présentes dans les maisons de retraite où elles remplacent le personnel manquant ou défaillant. En majorité, les pensionnaires s’y attachent, rentrent en intimité avec elles. A l’argument selon lequel les machines ne peuvent éprouver d’affects, les roboticiens répondent sans rire qu’ils en fabriqueront un jour de manière synthétique.

« Il est tellement aisé d’être obnubilé par la technologie et de ne plus chercher à développer notre compréhension de la vie », conclut l’auteure (p.170).

La seconde partie concerne l’internet avec ses réseaux sociaux, ses jeux en ligne, sa Second Life et ses sites de confession. Les effets de leur omniprésence dans notre quotidien sont loin d’être négligeables. D’abord celui d’une attention fragmentée permanente aboutissant au multitasking (multi-tâches) chez les jeunes, cette faculté qui impressionne tant les aînés, alors que les études en psychologie montrent que lorsque l’on fait plusieurs choses à la fois, on fractionne son attention et on les fait toutes moins bien. Ensuite, un effacement de la frontière entre la vie professionnelle et la vie privée, quand le smartphone reste allumé jour et nuit. Même en vacances, le cadre américain reçoit environ 500 courriels, plusieurs centaines de textos et 40 appels par jour !

Résultat : faute de temps, tous nos interlocuteurs sont réifiés, nous les traitons comme des objets. Turkle a aussi étudié le cas des natifs numériques (digital natives), les générations nées après 1990 pour lesquelles le web représente un liquide amniotique non questionné. « Je suis connecté, donc je suis ! » Et alors ?, répondront les technoptimistes.

« Ce n’est pas parce qu’un comportement devient normal qu’il perd la dimension problématique qui l’avait auparavant fait considérer comme pathologique », précise l’auteure (p.283).

Les jeux en ligne et Second Life nous entraînent dans un monde virtuel fait de simulacres, qu’on finit par préférer à notre vie réelle, les plus accros y passant la moitié de leur temps de veille ! Nous en demandons moins aux êtres humains et plus à la technologie, à laquelle nous appliquons une pensée magique : tant que je suis connecté, je suis en sécurité, et les gens que j’aime ne disparaîtront pas. Facebook est un fauve insatiable qu’il faut alimenter en permanence de nouvelles « positives » sous forme de textes, de photos, de vidéos, qui envahissent la vie privée, dans une simplification et un appauvrissement de nos relations.

A la fin du livre, nous apprenons qu’aujourd’hui de plus en plus de jeunes Américains ont la nostalgie du monde d’avant la connexion généralisée, quand les parents étaient attentifs, investis et engagés envers leurs enfants. Un début d’espoir de révolte ? Ce copieux essai de 523 pages fait le point sur un phénomène toujours sous-estimé dans ses retombées sociétales. Et encore, Turkle n’aborde pas ici l’aspect anti-écologique de ces technologies. Que resterait-il bien pour les défendre ? Chers lecteurs de France, voilà un excellent sujet pour le bac !

Bernard Legros

Article paru à l’origine dans Kairos, revue technocritique belge, n°19 avril/mai 2015

Bernard Legros est enseignant, essayiste, membre de l’Appel pour une Ecole Démocratique et membre fondateur du Mouvement politique des Objecteurs de Croissance (Belgique)

 

 

Jean-Michel Besnier : « Ce n’est pas être réactionnaire… »

… que d’aborder l’amélioration qui prétend résulter des NBIC comme la traduction d’un parti pris (idéologique, politique, industriel, civilisationnel…) sur le format que l’on voudrait imposer à l’humain – un parti pris en tant que tel discutable. »

 

Malgré son titre « commercial », le petit livre de Laurent Alexandre et Jean-Michel Besnier « Les Robots font-ils l’amour ? » (Dunod, 2016) contient les éléments d’une profonde réflexion sur le transhumanisme en général et l’Intelligence Artificielle en particulier.

Il s’agit en effet non pas tant d’un commentaire sur la science qui se fait que d’une réflexion prospective sur le monde que nous prépare la technique et d’une critique vigoureuse du mouvement qui lui donne aujourd’hui un contenu politique et idéologique : le transhumanisme.

Pour Jean-Michel Besnier, cette idéologie est fondamentalement viciée parce que les transhumanistes veulent en fait « éviter l’inconvénient qui s’attache à toute vie, à savoir l’aventure et la liberté. »

Citons quelques extraits éclairants de ce dialogue entre deux personnalités qui, dans le panorama médiatique français, se distinguent par leur lucidité :

 

Sur le réductionnisme de l’idéologie transhumaniste

Jean-Michel Besnier : « Je redis mon attachement au rôle humanogène dévolu à la technique, mais j’exige aussi la préservation de la dimension symbolique, propre à l’espèce humaine, [à savoir] le langage, condition de l’art politique. […] L’objection du chiffre contre la réflexion argumentée est emblématique d’une évolution des technosciences qui écarte les langues de culture pour ne garder au mieux que les signaux et codages qui lui restent nécessaires. »

«  L’amélioration de l’espèce humaine n’est pas l’augmentation des performances et des facultés des individus, sauf à vouloir animaliser ou machiniser l’humain en le soumettant à la mesure, ou en le réduisant aux algorithmes et aux métabolismes dont se délectent la culture du numérique et les GAFA. »

 

 

Sur la fusion homme-machine

Laurent Alexandre : « Pour être à la hauteur des automates, certains dirigeants de Google proposent de nous hybrider avec l’IA : devenir cyborg pour ne pas à être dépassé par l’IA ! […] Paradoxalement, l’ultime outil de l’humanité pour éviter sa vassalisation serait ainsi l’instrument de son suicide. »

JMB : « Le transhumanisme affiche son mépris pour la dimension symbolique de l’existence de l’être désirant. La fusion avec la machine est la version la plus brutale du cynisme qui consiste à supprimer en l’humain toutes les ressources qui lui ont permis de grandir (« tout ce qui ne me tue pas me fait grandir », comme dit Nietzsche) et d’aimer (la conscience de l’éphémère est au principe de toute ouverture sur l’autre que soi). »

 

 

Sur la concurrence de l’IA

JMB : « En réalité, la menace couve depuis longtemps : depuis la révolution industrielle, la machine apparaît comme responsable du sentiment d’impuissance que les humains éprouvent de plus en plus. Elle est un facteur de mésestime de soi, la cause de cette « honte prométhéenne d’être soi » décrite par le philosophe autrichien Günther Anders. Mais, comme si les manufactures et les automates de tout poil ne suffisaient pas, la machine paraît s’être aujourd’hui accaparée l’intelligence, et les jeux sont faits : elle va nous remplacer dans ce que nous avons de plus spécifique, de plus gratifiant et donc, elle nous condamne à disparaître progressivement. »

LA : « Les algorithmes ne vont pas nécessairement nous tuer mais ils créent une situation révolutionnaire. L’IA va nous faire basculer dans une autre civilisation où le travail et l’argent pourraient disparaître. L’IA est longtemps restée un sujet de science-fiction. Elle est désormais une simple question de calendrier : l’explosion des capacités informatiques (la puissance des serveurs informatiques a été multipliée par un milliard en trente et un ans) rend probable l’émergence d’une IA supérieure à l’intelligence humaine dans les prochaines décennies. »

 

Aurons-nous le courage de regarder la réalité en face ?

Laurent Alexandre montre bien que les intellectuels se laissent régulièrement surprendre du fait de leur incapacité à prendre au sérieux les utopies, et en particularité, actuellement, l’utopie posthumaine des humains augmentés. Au risque de laisser se développer un nouveau totalitarisme « soft ».

JMB « Biototalitaire, le monde le sera au fur et à mesure qu’il fera triompher l’obsession technoprogressiste pour la seule survie, pour une longévité sans fin(alité), pour une individuation biologique privée de la dimension symbolique qui fait l’existence humaine. »

« La régulation des technologies d’amélioration de l’humain n’évitera pas l’examen de ces conséquences socio-anthropologiques et elle devra faire droit aux questions philosophiques : faut-il vouloir supprimer le hasard dans la condition humaine ? »

« Je préfère me demander si une limite doit être opposée à la perfectibilité humaine. Autrement dit : faut-il refuser, à un moment donné, de poursuivre la quête d’un progrès, au risque de bloquer l’histoire humaine ? […] Ce n’est pas être réactionnaire que d’aborder l’amélioration qui prétend résulter des NBIC comme la traduction d’un parti pris (idéologique, politique, industriel, civilisationnel…) sur le format que l’on voudrait imposer à l’humain – un parti pris en tant que tel discutable. »

 

Pour agir

L’humanité est confrontée à de grands défis mais les gouvernements sont dépassés par les acteurs du numérique. La technologie est plus forte que la loi, c’est elle qui structure la société.

LA : « Face à la déferlante de la Silicon Valley, l’Etat est sidéré et piétine à la vitesse d’un sénateur. »

JMB : « Admettons donc que la technologie soit a priori incapable de s’autolimiter : on dit en effet qu’elle est le lieu de l’expression de la démesure dont les humains sont capables. Elle ne peut recevoir de frein que de l’extérieur, c’est-à-dire qu’il lui faut être tempérée par ce qui relève de la réflexion et du symbolique (la communication politique). »

LA : « L’Ecole jouera un rôle central dans la préparation à ce qui s’annonce devant nous. […] Les trois piliers de l’Ecole sont à refondre : le contenu, la méthode et le personnel. Il faudra, d’abord, réhabiliter les humanités et la culture générale, puisque vouloir concurrencer les machines sur les matières techniques sera bientôt dérisoire. »

 

Nous ne pouvons que nous réjouir de voir le débat porté enfin sur le plan des valeurs anthropologiques que nous défendons à travers l’AFCIA, et formulé en des termes qui sont pratiquement les nôtres.

3/04/17 – Elon Musk et les mystificateurs de l’IA

Dans un rapport du 14 mars 2017 sur l’Intelligence Artificielle, le bureau de veille technologique du Parlement (OPECST) avance quinze propositions concernant l’Intelligence Artificielle.

Ces mesures résultent de l’enquête réalisée par la sénatrice Dominique Gillot et le député Claude de Ganay auprès d’un panel de spécialistes en 2016 et 2017, et à laquelle l’AFCIA a participé.

Que préconisent nos parlementaires pour parvenir à l’objectif d’une IA « maîtrisée, utile et démystifiée ? »

 

Une démarche timide et encore trop consensuelle …

Bien entendu, on cherchera en vain une remise en question de l’IA elle-même. On ne peut en effet pas attendre de la part de nos élus une prise de position critique à l’égard d’une tendance dans laquelle se ruent tous les acteurs économiques. Pas question d’apparaître comme susceptibles de freiner la marche vers le Saint-Graal de la croissance !

Il en résulte des formules prudentes qui ne manquent parfois ni d’incohérence ni même d’humour :

Pour une IA maîtrisée, il faut se garder… d’une contrainte juridique trop forte. Ce serait en effet dommage d’essayer de maîtriser.

Favoriser (comment ?) des algorithmes et des robots sûrs, transparents et justes. Par exemple, un drône tueur juste est un drône qui ne tue que les méchants ?

Former et sensibiliser le grand public aux conséquences pratiques de l’IA et de la robotisation. A quel moment ? Avant ou après leur licenciement ?

Etre vigilant sur les usages spectaculaires et alarmistes du concept d’IA. Comment ? En empêchant la presse de nous avertir qu’Elon Musk veut nous implanter des puces dans le cerveau ?

 

… mais une démarche dans la bonne direction !

Il serait toutefois injuste de ne pas saluer la prise de conscience de la dimension éthique de l’IA dans ces travaux du Parlement.

En particulier le projet d’un Institut National de l’Ethique de l’IA nous semble une initiative judicieuse, à condition bien entendu qu’il soit ouvert à d’autres sensibilités que celles des chercheurs en IA et des entreprises numériques. Le but d’un tel Institut étant en effet de structurer la relation entre le pôle des développeurs de l’IA et le reste de la société civile, il importe que celle-ci y soit représentée. Enfin, cet Institut devrait en tout état de cause rester sous tutelle du Parlement, et sous contrôle démocratique.

Cependant, comme le font remarquer les rapporteurs, c’est au plan international que devrait se jouer le débat éthique sur l’IA, susceptible d’aboutir à une charte ou à une réglementation quelque peu contraignante. L’une des premières missions de l’Institut National de l’Ethique de l’IA devrait être par conséquent de mettre en place un organisme international équivalent au sein de l’ONU.