L’IA, une menace pour l’emploi et pour notre système social

Christian Castellanet

Le nouveau robot Digit d’Amazon

Sans changement radical de notre modèle économique actuel, il y a fort à parier que le choc de l’IA sur le monde du travail va se traduire d’une part par la montée du chômage, d’autre part par la poursuite et l’aggravation du déclassement de nombreux professionnels qualifiés, incluant techniciens, ingénieurs, gestionnaires et professions libérales, forcés d’accepter des emplois de service peu qualifiés et mal payés, de type « services à la personne », la croissance des inégalités entre salariés, et une augmentation spectaculaire des profits et du capital des multinationales de la Big Data.

Les derniers développements de l’IA générative provoquent beaucoup d’intérêt de la part des responsables d’entreprise[1], qui y voient une source de gain de productivité importante, mais aussi beaucoup d’inquiétudes du côté des salariés. La grève des scénaristes et des acteurs du cinéma d’Hollywood a montré à quel point le monde de l’art se sentait menacé. Grace à une mobilisation massive, les scénaristes ont obtenu des garanties sérieuses de limitation du recours à l’IA par les grands studios[2]. Mais combien de secteurs disposent aujourd’hui d’une telle capacité de réaction syndicale ?

Certes, la question n’est pas nouvelle. La révolution industrielle, puis l’automatisation et la révolution informatique ont déjà fait disparaître la plupart des emplois manuels dans l’industrie ou l’agriculture. Mais les emplois qualifiés des cadres et ingénieurs semblaient relativement protégés.  Avec l’IA générative[3], les capacités de perception et de compréhension de l’environnement, de reconnaissance visuelle, de capacité de compréhension et de production de langage écrit et parlé, ont d’ores et déjà dépassé les humains en terme de précision.

 Les IA peuvent donc désormais les remplacer dans des tâches plus complexes supposant une adaptation à des environnements variables. Ce sont dès lors aussi la plupart des emplois qualifiés qui vont se retrouver en concurrence avec l’IA, depuis les médecins, les professeurs, les designers, en passant par les policiers, les pilotes d’avion, les militaires, les producteurs de série télévisées, les journalistes….  On sait déjà que des IA ont réussi avec succès l’examen du barreau (pour devenir avocats) et un examen d’ingénieur. Dans les deux cas cela montre qu’elles peuvent résoudre des problèmes concrets, d’ordre professionnel, aussi bien ou mieux que ne le ferait un avocat ou un ingénieur, mais surtout plus rapidement et à un coût bien moindre.  Certes l’avocat restera peut-être nécessaire pour une plaidoirie basée sur la capacité de provoquer l’empathie des jurés en cours d’assise, mais si l’on s’en tient à l’argumentation juridique et à l’analyse de la jurisprudence qui font sans doute 80% de son travail, l’IA fera mieux et beaucoup moins cher que lui. De même l’ingénieur qui doit planifier un chantier pourra être très vite supplanté par la machine. L’IA n’étant pas infaillible, il faudra sans doute faire contrôler les résultats par des humains expérimentés, mais là où il y avait besoin de 4 ingénieurs ou architectes, un seul suffira à la tâche. L’expert en IA Kai-Fu Lee prévoyait dès 2022 (dans l’IEEE Spectrum  33) de fortes perturbations pour les 15-20 prochaines années dans le marché du travail avant une stabilisation. Cette période sera selon lui marquée par le remplacement brutal de personnes mises en concurrence avec des IA et pour qui une reconversion professionnelle vers un métier de la tech sera impossible. Kai-Fu Lee imagine à court terme une combinaison entre un humain super-ingénieur (qualifié d’architecte) et des IA travaillant sous sa supervision. Comme il le souligne, ces emplois seront rares et réservés uniquement pour les ingénieurs expérimentés. Ces architectes font irrémédiablement penser aux postes actuels de managers d’équipe auxquels les ingénieurs se destinent après une première partie de carrière. C’est cette première partie de vie professionnelle qui risque d’être la plus affectée, voire de disparaître. En effet, il faut imaginer dans les tests de recrutement et les périodes d’essai, les jeunes ingénieurs mis en compétition face à une IA. Pour les nombreux perdants, l’impact pourra être dévastateur après de longues études et les longs processus de recrutement[4]… Les médecins, qui font de plus en plus de téléconsultations où ils se contentent de poser quelques questions et de prescrire des traitements ou examens standards pourront également être en grande partie remplacés par une IA qui feront mieux et surtout moins cher qu’eux. On a vu aussi que des images ou musiques créées par des IA ont remporté la préférence du public sur des œuvres créées par des graphistes ou compositeurs humains…  

Des élèves du secondaire ou des prépas ont d’ores et déjà décidé d’arrêter leurs cours particuliers en constatant que ChatGPT répondait mieux à leurs questions. Organiser des cours par correspondance interactifs va devenir très facile, dès lors qu’il s’agit de transmettre des connaissances et des savoirs faire, l’IA pourra le faire mieux et moins cher que les professeurs humains. Le seul avantage des humains restera sans doute dans l’enseignement de la sociabilité et le partage des valeurs éthiques, domaine dans lequel ils ont cependant de plus en plus de difficulté à faire passer leurs messages, mais même cela n’est pas certain puisque certaines entreprises développent déjà des IA « empathiques » comme Pi (développé par Inflexion AI)… 

A l’autre extrémité de l’échelle, les développements de l’IA vont considérablement accélérer le remplacement des ouvriers et employés par des robots. Certes, l’automatisation ne date pas d’hier, et elle s’est imposée sur les chaines de production pour des tâches répétitives. Mais les tâches demandant une certaine adaptation au contexte, qui avaient résisté, sont maintenant menacées.  Les caissières sont déjà massivement remplacées par des machines, on voit se développer des robots de nettoyage qui vont remplacer les techniciens de surface (dans le métro notamment), la surveillance pourra se faire de plus en plus par des IA travaillant sur vidéos avec reconnaissance faciale, comme c’est déjà prévu pour les JO de Paris. L’autorisation de véhicules autonomes pour remplacer les taxis, les camionneurs et les livreurs n’est qu’une question de quelques années. Les taxis autonomes sont déjà autorisés depuis plus d’un an à San Francisco, où l’un  d’entre eux a été brûlé par une foule en colère le 10 février 2024. Selon la Compagnie Waymo, filiale de Google, sur 700.000 courses déjà effectuées par ses taxis autonomes, les taux d’accident signalés à la police ont été réduits de 57% par rapport à ceux des conducteurs humains   On prévoit aussi le remplacement des cuisiniers et serveurs assez rapidement, cela sera évidemment plus facile pour les chaînes de fast food produisant des menus très standardisés que pour les restaurants étoilés, mais n’est- ce pas la tendance actuelle des consommateurs ?

En 2017, des chercheurs de l’Université d’Oxford ont interrogé 352 spécialistes de l’IA et de l’apprentissage automatique. Les chercheurs ont prédit que les machines seront meilleures que les humains dans le domaine de la traduction de langues d’ici 2024, qu’elles seraient capables de rédiger des essais d’ici 2026, se conduire des camions d’ici 2027 et travailler dans le commerce et la vente en 2031. Selon les spécialistes, il y a 50 % de chance pour que l’intelligence artificielle dépasse les humains dans tous les domaines en seulement 45 ans (donc d’ici 2060) et qu’elles remplacent tous les emplois humains en 120 ans[5].  Certains pensent cependant que cela pourrait être plus rapide, et l’on voit que l’IA a déjà été plus rapide (pour la rédaction des essais notamment).

Bien entendu il s’agit de projections subjectives, tout à fait discutables puisque ne reposant que sur leur expérience et leur intime conviction. A cela, beaucoup répondent que tout ceci est très exagéré, que l’IA est incapable de remplacer l’homme dans la vraie vie, et qu’il y aura toujours besoin d’un humain pour contrôler le travail des robots. Ils ajoutent que toutes les prévisions passées sur l’imminence du remplacement des travailleurs par l’IA se sont avérées fausses, en particulier concernant la mise au point des voitures autonomes, faussement annoncée comme imminente dès …

Les économistes aussi se sont intéressé à l’impact de l’automation et de l’IA sur les emplois. Ils ont essayé d’adopter une méthode plus scientifique, en essayant d’estimer quelle proportion des tâches actuellement effectuées par les travailleurs pourraient être effectuées dans l’état actuel des connaissances, par des IA.

Mac Kinsey, pour commencer, a calculé en 2017 dans leur rapport « “A Future that Works: « Automation, Employment, and Productivity ” le pourcentage des tâches susceptibles d’être automatisées dans l’état actuel des connaissances pour 800 professions. Ils ont pris en compte 2000 activités de base (sur la base d’O*Net, la base de donnée des EUA), et pour chaque activité l’ont décomposée en 18 compétences allant de la perception de l’environnement aux interventions physiques, en passant par les capacités cognitives (analyse et décision), sociales et émotionnels, et de communication par le langage. Sur la base des opinions des experts, ils ont estimé pour chacune de ces capacités et activités quelles étaient celles susceptibles d’être automatisées, puis les ont pondérées en fonction du nombre d’emplois.

Le résultat : Ils estiment que 46 % du temps de travail peut être remplacé par des machines aux Etats unis, principalement dans la collecte de données, le traitement des données et la réalisation de tâches répétitives ou prédictibles, 47% en Europe, mais aussi 51 et 52% en Chine et en Inde.  


Sur la base de divers scenarios hypothétiques, ils estiment que la moitié de ce potentiel pourrait être atteint en 2055, donc en 35 ans (au plus tôt en 2035, au plus tard en 2065).   Ils pensent cependant, de manière très optimiste, et sans vraiment de discussion, que cela ne devrait pas poser de problème aux salariés qui retrouveront des emplois dans de nouveaux secteurs, mais insistent sur le potentiel de ces technologies pour améliorer la productivité et le PNB, de 0,8 à 1,4 % par an selon les scenarios.   

En 2019, une équipe de recherche du Think Tank Brookings (Muro, Maxim et Whiton) [6]a appliqué ces scores à une base de donnée étatsunienne fournissant des statistiques sur l’ensemble des emplois aux Etats Unis. Leur conclusion confirme les estimations de MC Kinsey : 46% des tâches actuelles de l’ensemble des employés des Etats Unis sont automatisables.  Sont particulièrement affectés, tous les emplois peu qualifiés et peu payés. Ils observent qu’il s’agit avant tout des emplois basés sur des tâches répétitives, en particulier au niveau des emplois industriels (59%), du transport et stockage (58%), de l’agriculture (57%), mais aussi du commerce de détail (53%), du secteur banque assurance (42%). Sont par contre relativement épargnés les emplois plus qualifiés, basés sur des activités non routinières et demandant une certaine créativité, de même que certains emplois moins bien payés faisant appel à une intelligence sociale et affective. Cela concerne les enseignants (27%), les professions de santé (36%) et les managers (34%).  Ils signalent toutefois que le développement de l’IA va permettre d’automatiser des professions jusque-là épargnées, parce que moins routinières, par exemple les conducteurs de bus, de taxi, les serveurs de restaurant ou les emplois du bâtiment.  En se basant ensuite sur une règle assez contestable, qui serait que seuls les emplois automatisables à plus de 70 % sont menacés de substitution ils estiment que 25% des emplois actuels des USA (soit 36 millions de postes) pourraient disparaître dans les prochaines décades.

 Il est vrai qu’ils signalent que rien ne garantit que toutes les taches automatisables le seront, ni surtout à quel rythme cela se fera.  Par contre ils anticipent la poursuite des tendances observées au cours de 40 dernières années[7], qui se sont traduites par l’augmentation des écarts de revenus entre les travailleurs les moins qualifiés et les mieux qualifiés, mais surtout par une baisse relative des revenus et des emplois de la classe moyenne, due en particulier à la forte réduction des emplois administratifs (Par exemple les caissiers, secrétaires, comptables…), qui a obligé une partie croissante des personnes avec un bon niveau d’éducation à accepter des emplois de service mal payés.

En mars 2023, des analystes de Goldman Sachs[8] évaluent à leur tour l’impact de l’IA sur les emplois (et sur la productivité et la croissance économique[9], mais cette fois en prenant en compte les progrès rapides des IA génératives, en particulier Chat GPT, DALL-E et LaMDA. Ils observent que l’IA surpasse désormais les humains en matière de reconnaissance des images, et de compréhension des textes, et que cela augure d’un nouveau coup d’accélérateur aux possibilités d’automatisation des tâches, d’ailleurs confirmé par la croissance rapide des investissements des entreprises dans l’IA.

Pour estimer l’impact sur l’emploi, ils se sont appuyés sur des bases de donnée américaines (O*Net) et européennes (ESCO) qui détaillent les tâches effectuées par 900 professions, en les catégorisant de 1 à 7 selon qu’il s’agit de tâches simples ou complexes. En considérant que les robots et l’IA peuvent se charger des taches de moindre complexité (Niveau 1 à 4), cela leur permet d’estimer la proportion du travail substituable dans chaque profession[10].  Ce qui est tout à fait notable, c’est qu’ils décident de ne s’intéresser qu’à 13 types d’activité sur 39[11], plus susceptibles d’être affectés par l’IAG, en éliminant les activités manuelles ou en extérieur.

Et là, les résultats sont très différents de ceux de Brookings et Mc Kinsey. Ils estiment que 25% des emplois sont substituables par l’IA aux USA et en Europe, ce qui est donc plus faible que Brookings, mais cela se comprend, comme ils le notent eux-mêmes, du fait qu’ils se sont focalisés sur les applications de l’IAG et non sur les autres formes d’automatisation.

Mais par contre, parmi les emplois les plus menacés, on trouve désormais les emplois juridiques (44% de leurs taches seraient automatisables), les ingénieurs et architectes (37%), les chercheurs (36 %), les managers (32 %), les informaticiens (29%), les artistes (22%). Par contre, seulement 11% des emplois industriels et des emplois du transport.  Il y a donc inversion des effets, ce sont cette fois les emplois les plus qualifiés qui sont les plus menacés.  Il faudrait donc ajouter cet effet IAG aux estimations précédentes pour avoir une idée de l’impact potentiel de l’IA sur les emplois.  [12]  Le fait que ce sont les emplois les plus qualifiés qui sont désormais concurrencés par l’IAG est confirmé par une autre étude, celle du Pew Research Center : les employés ayant un niveau licence sont deux fois plus exposés à un haut niveau de concurrence avec l’IAG (pour 41 % d’entre eux) que ceux n’ayant qu’un niveau d’études primaire (19%)[13].

En ce qui concerne l’impact sur les salariés, Goldman Sachs estime, toujours aussi arbitrairement, que seuls les salariés dont plus de 50% de leurs tâches sont substituables risquent de perdre leur emploi, ce qui les amène au chiffre de 7% des salariés menacés aux Etats Unis ; ils pensent que la plupart vont retrouver du travail dans de nouveaux secteurs. A l’appui de cela, ils rappellent que le même phénomène s’est produit dans le passé, et que par exemple 60% des emplois existants en 2018 le sont dans de nouveaux métiers qui n’existaient pas en 1940. Ils supposent que comme lors de la première révolution industrielle, beaucoup d’emplois vont disparaitre, mais de nouveaux vont être créés, selon le processus de « destruction créatrice » théorisé par Schumpeter

Pourtant, de leur aveu même, cette belle théorie ne fonctionne plus depuis le début des années 80, le nombre de travailleurs ayant perdu leur emploi dans les secteurs anciens (environ 0,7 % par an) étant devenu le double de ceux en ayant obtenu un dans de nouveaux secteurs (0,35 % environ[14).   Sur 40 ans, cela signifie que 14% des salariés ont perdu leur emploi du fait de l’automatisation, mais n’en ont pas retrouvé un dans les nouveaux secteurs.



Les sceptiques, bien représentés par Romaric Godin[15], font un certain nombre d’objections aux prévisions selon eux exagérées d’impact de l’IA sur les emplois :

  • « Les prévisionnistes ne sont pas neutres », ils ont un intérêt à faire miroiter des perspectives mirobolantes de gain de productivité et de profits pour entretenir la bulle spéculative autour de l’IA.  On peut bien sûr partager ce scepticisme vis à vis de l’objectivité de Goldman Sachs, Mac Kinsey, ou d’Elon Musk dans cette affaire. Mais la question est : quel intérêt ont-ils à mettre en garde contre les conséquences de l’IA en terme d’emploi, jusqu’à prôner la mise en place de revenus universels ? Comment expliquer que d’autres actionnaires de la Tech, au premier rang Bill Gates, minimisent au contraire tout impact sur les emplois ? C’est aussi négliger le fait que d’autres chercheurs, a priori moins liés à la finance technologique, arrivent aux mêmes conclusions, comme c’est le cas d’Oxford Institute ou de Brookings. Quoi qu’il en soit, tant qu’on n’a pas d’autres économistes qui s’attaquent à cette question, quitte à critiquer les modèles utilisés et à refaire les calculs, on n’a pas d’autres sources pour faire ces estimations.
  • « L’IA n’est pas vraiment intelligente », et ne pourra jamais remplacer l’homme, en ce qu’elle n’a pas de conscience, se comporte comme un perroquet, etc.  De plus elle fait des erreurs. Sur ce plan, on aurait tendance à dire que c’est un débat sur le sexe des anges IA, en réalité peu importe du point de vue de l’économiste.  Nul ne dit que l’IA va entièrement remplacer tous les hommes dans toutes leurs activités à court terme, par contre ce qui importe c’est bien d’étudier quelle part des activités (ou tâches) actuelles des travailleurs l’IA peut remplacer aujourd’hui, compte tenu de ses caractéristiques, y compris le fait qu’elle peut faire des erreurs et doit donc être supervisée par un humain.
  • « L’IA n’a pas de compétences sociales, donc la plupart des usagers ne souhaitent pas y avoir affaire ». Il est peut-être vrai que les plupart des humains préfèrent « dans l’absolu » avoir affaire à un humain qu’à une machine (et encore..). Mais dans la pratique, combien de consommateurs préfèrent faire leurs achats via Amazon que d’aller chez le commerçant du coin, ou utilisent AirBnB plutôt que d’aller dans un vrai hôtel ? Parce que c’est moins cher, plus pratique, etc…  Combien sont prêts à payer un traducteur en chair et en os plutôt que de passer par Deeple ou un autre traducteur automatique ? 
  • De plus, l’IA est tout à fait capable de simuler des sentiments, de manifester de l’empathie, on l’a bien vu avec le développement des partenaires amoureux virtuels. Elle est programmée pour paraître aimable, compréhensive, et donc de nombreux usagers préfèrent d’ores et déjà dialoguer avec une IA qu’avec un humain plus ou moins maussade. La prochaine génération d’IA seront « interactives ».
  • « Les prévisions des experts sont souvent fausses », on a déjà annoncé que la voiture intelligente serait opérationnelle dès 2017, et d’ailleurs même Goldman Sachs reconnaît qu’il y a un grand degré d’incertitude sur le rythme d’adoption de l’IA dans les entreprises. C’est un peu une évidence, nul ne sait à quel rythme la substitution aura lieu, ce sera fonction du coût des investissements nécessaires et de l’avantage compétitif des entreprises qui y auront recours, et bien sûr aussi de la résistance que les travailleurs pourront mettre en œuvre. Remarquons tout de même que les coûts d’investissement dans l’IAG sont pour le moment très modestes, chacun pouvant utiliser ChatGPT de manière illimitée pour 20 €/ mois, rien à voir avec le coût des robots sur les chaines automobiles, même en prenant en compte le coût d’investissement initial en expertise managériale pour réorganiser le travail avec l’IA; que dans le contexte ultralibéral actuel, les capacités de résistance des travailleurs et de leurs syndicats sont plutôt limitées, comme on l’a vu avec les délocalisations industrielles pendant les 40 dernières années ; qu’enfin l’hypothèse de Goldman Sachs  selon laquelle « seuls les salariés dont plus de 50% de leurs tâches sont substituables risquent de perdre leur emploi » semble extrêmement optimiste, on imagine mal comment une entreprise employant plus de 3 salariés sur une fonction donnée pourrait accepter par pure philanthropie de les garder indéfiniment alors qu’un gain de productivité de 40% permet d’accomplir les mêmes taches avec 2 employés, et donc de diminuer ses coûts de 33 %, ou même de 28 % si on considère que le coût de l’IA  représente 5% des salaires et charges.  On peut donc en conclure que les prévisions de Goldman Sachs sont plutôt optimistes, le nombre d’emplois qui risquent de disparaître se situe quelque part entre les 7 % annoncés et 50%.

Les partisans de l’IA mettent tous en avant la promesse de création de nouveaux emplois qui remplaceront ceux qui auront été détruits, en se basant sur l’histoire : selon eux, les prévisions pessimistes des opposants à la mécanisation (les luddistes) puis à l’informatisation se sont révélées fausses.  Nous avons vu plus haut que pour ce qui est de l’informatisation et de la robotisation depuis les années 80, ce n’est pas tout à fait vrai non plus.  Quoi qu’il en soit, ce n’est pas parce qu’un phénomène a été observé deux ou trois fois de suite dans l’histoire qu’il sera toujours vérifié dans l’avenir.

On peut en l’occurrence sérieusement douter de cette « destruction créatrice », en tout cas à moyen terme ; car ce ne sont plus seulement les travaux manuels plus ou moins pénibles qui sont concernés, ce sont tous les emplois demandant une intelligence logique.  Le rythme du changement et le choc technologique va être plus rapide et massif que ceux des révolutions industrielles précédentes, à moins que des politiques de régulations très fortes ne soient mises en place pour limiter, interdire ou taxer lourdement l’utilisation des IA dans de nombreuses fonctions.  Sur le plan de l’emploi, le choc sera sans doute très fort. En admettant que les IA permettent à un avocat de traiter 5 fois plus de dossiers, ou à un médecin 5 fois plus de patients, en gardant la fonction « noble » du dialogue attentif et de l’écoute active du patient, qui deviendront les 4 docteurs ou avocats qui ne seront plus nécessaires ? Comme le dit Yuval Hariri, l’auteur d’ « Homo deus »[16] « Il est hautement probable que les algorithmes et les robots assumeront non seulement des emplois industriels mais aussi des prestations de service. A quoi sert un chauffeur de poids lourd si des véhicules autonomes font le travail à moindre coût et de manière plus sûre ? Parmi les métiers menacés figurent aussi les représentants de commerce, les courtiers en bourse et les employés de banque. Enseignants et médecins ont aussi du souci à se faire. (..) Je doute qu’un camionneur quinquagénaire sans emploi puisse être aisément recyclé en designer de réalité virtuelle. Le problème est la vitesse inouïe du progrès. Naguère, des innovations techniques comme l’imprimerie ou la machine à vapeur se diffusaient très lentement, la société et le politique avaient le temps de s’adapter aux réalités nouvelles. »

Sans des mesures politiques et sociales extrêmement fortes[17], en fait sans changement radical de notre modèle économique actuel, il y a fort à parier que le choc de l’IA sur le monde du travail va se traduire d’une part par la montée du chômage, d’autre part par la poursuite et l’aggravation de ce qu’on a déjà observé depuis les années 80, c’est à dire le déclassement de nombreux  professionnels qualifiés, incluant techniciens, ingénieurs, gestionnaires et professions libérales, forcés d’accepter des emplois de service peu qualifiés et mal payés, de type « services à la personne »,  la croissance des inégalités entre salariés, au profit d’une petite minorité de super professionnels assistés par les  IA,  et une augmentation spectaculaire des profits et du capital des multinationales de la Big Data.

____________________


NOTES ET RÉFÉRENCES


[1] Selon le « Generative AI Radar » publié par la compagnie Infosys en 2024, la France et l’Allemagne sont en tête de l’adoption de l’IA générative en Europe. 50% des entreprises de ces pays auraient déjà déployé de l’IA générative, mais seulement 10% en auraient tiré une valeur commerciale au 13 décembre 2023. Un chiffre qui s’explique par une nécessaire phase d’expérimentation et qui ne devrait pas dissuader les organisations de doubler leurs dépenses en IA générative au cours de l’année 2024, signe d’une solide confiance en son potentiel.  Les dépenses d’investissement en IA estimées en 2023 sont de 1,3 Milliards d’Euros en Europe, et 3,3 Milliards aux USA. Source : sondage Infosys Knowledge Institute auprès de 1 000 répondants issus d’entreprises de 11 pays d’Europe occidentale, décembre 2023 https://www.infosys.com/services/data-ai-topaz/gen-ai-radar-eu.pdf

[2] Selon Le Monde du 27 septembre 2023, « Le compromis montre que les studios ont cédé à la plupart des revendications portées par le syndicat et semble dessiner une victoire des scénaristes. Il inclut notamment une prime lorsqu’une série ou un film rencontre un certain succès sur une plate-forme de streaming, c’est-à-dire lorsque « 20 % ou plus des abonnés nationaux du service » visionnent la production « dans les quatre-vingt-dix premiers jours de sa sortie ».  En matière d’intelligence artificielle, les scénaristes ont également obtenu des garanties pour ne pas se faire remplacer par des robots. L’accord leur permet de retravailler des scripts initialement générés par une IA, tout en étant considéré comme l’unique auteur de ce travail, et donc sans être moins rémunéré. Une clause prévoit également que « l’exploitation du matériel des scénaristes pour former l’IA est interdite ». Autrement dit, des robots ne pourront pas être nourris par des scripts de créateurs syndiqués pour améliorer leurs capacités narratives. Un point sur lequel les studios étaient longtemps restés silencieux. ».
Les acteurs ont également obtenu des garanties le 9 novembre 2023, après 118 jours de grève : « L’accord garantit également aux acteurs une meilleure protection contre l’usage excessif de l’intelligence artificielle. L’objectif ? Faire en sorte que leur image ne puisse pas être utilisée à leur insu et qu’aucune intelligence artificielle ne se substitue au travail des artistes. « Pour la première fois, un consentement éclairé et des garde-fous en matière de rémunération équitable seront mis en place pour l’utilisation de l’intelligence artificielle dans notre industrie », a déclaré le négociateur en chef, Duncan Crabtree-Ireland. Concrètement, chaque acteur devrait recevoir un paiement équivalent au temps d’écran et au type de prestation réalisé par sa réplique numérique. » (Source : Vanity Fair, 9 nv 2023)

[3] De plus, ce mouvement est encore accéléré par l’extension exponentielle des données collectées à tout moment par toutes sortes de capteurs, en particulier sur les smartphones et autres objets connectés, stockées sur les gigantesques data centers des GAFAM (et des services gouvernementaux qui travaillent en étroite synergie avec eux), accessibles en temps réel aux IA et qui leurs permettent d’en savoir beaucoup plus sur leur environnement que n’importe quel humain.

[4) Cf Marius Bertolucci, L’Homme diminué par l’IA, Hermann 2023.

[5] Katja Grace, John Salvatier, Allan Dafoe, Baobao Zhang, Owain Evans, « When Will AI Exceed Human Performance? Evidence from AI Experts », arxiv.org, 24 mai 2017.

[6] Automation and Artificial Intelligence. How machines are affecting people and place. MARK MURO, ROBERT MAXIM, JACOB WHITON Metropolitan plicy Program. Brookings January 2019

[7] Une étude du National Bureau of Economic Research  (Acemoglu, Daron, et Pascual Restrepo. « Tasks, Automation, and the Rise in US Wage Inequality », 14 juin 2021. <https://doi.org/10.3386/w28920>,  parue en 2021 s’est intéressée aux revenus des travailleurs sur une période de 40 ans pour observer l’impact des outils informatiques sur les salaires. L’automatisation est déjà à l’origine de l’inégalité des revenus aux États-Unis. Les chercheurs affirment que 50 à 70 % des variations des salaires américains depuis1980 sont attribuables à la baisse des salaires des cols bleus qui ont été remplacés ou déclassés par l’automatisation. Également, l’étude nous apprend que les revenus des hommes sans diplôme d’études secondaires sont aujourd’hui inférieurs de 15 % par rapport à 1980.

[8] The Potentially Large Effects of Artificial Intelligence on Economic Growth (Briggs J., Kodani D., Pierdominico G.) Global economic analysis. Goldman Sachs. Mars 2023 https://www.key4biz.it/wp-content/uploads/2023/03/Global-Economics-Analyst_-The-Potentially-Large-Effects-of-Artificial-Intelligence-on-Economic-Growth-Briggs_Kodnani.pdf

[9] Avec un bel optimisme, ils estiment que l’IAG va permettre un gain de productivité de 1,5% par an, et un gain de 7 % du PNB américain, sans expliquer au demeurant comment ils arrivent à ces chiffres. Mais le message principal est que les décideurs publics et privés  ont intérêt à prendre rapidement le train de l’IA en marche, faute de quoi ils resteront sur le carreau, victimes de la concurrence de pays et d’entreprises plus dynamiques

[10] Il faut noter que la méthode qu’ils ont adoptée est très peu détaillée, ce qui fait que cette note n’a pas un caractère scientifique très marqué, de même que celle de Mc Kinsey… On est prié de les croire sur parole

[11] Ces 13 groupes d’activité concernent : La collecte d’information, la surveillance et le suivi, l’analyse des informations, leur synthèse, l’évaluation des performances, la mise à jour des connaissances, la communication adaptée à des publics variés, la planification et l’organisation du travail, les activités administratives.

[12] On ne peut pas simplement ajouter 46% et 20%, car pour certaines professions les impacts se recoupent sans doute. Il faudrait disposer des bases de données des deux études pour les fusionner. Mais sans grand risque d’erreur, on peut estimer que plus de 50% des emplois sont automatisables.

[13] Which U.S. Workers Are More Exposed to AI on Their Jobs? Rakesh Kochhar, Pew research Center, Juillet 2023. https://www.pewresearch.org/social-trends/2023/07/26/which-u-s-workers-are-more-exposed-to-ai-on-their-jobs/

[14] Chiffre approximatif estimé à partir du graphique, en l’absence des données chiffrées.

[15] « L’intelligence artificielle ne fera pas disparaître le travail, mais risque de le dégrader ». Mediapart, 8 avril 2023. 

[16] Yuval Hariri / Homo Deus – Homo deus – Une histoire de demain 
Interview par Guido Mingels, 2 mai 2017

[17] Qui pourraient être par exemple une réduction massive du temps de travail légal, la taxation des IA et des GAFAM pour alimenter des fonds destinés à financer des emplois verts et sociaux d’intérêt général, et le démantèlement des monopoles de ces mêmes GAFAM. 

La mise en place d’un revenu universel, qui a la faveur de certains oligotechnarques  tel Elon Musk, outre le fait que son financement n’est pas précisé (sans doute laissé aux bons soins des Etats, tout en préservant les profits de la Tech) risquerait de marquer l’acceptation d’une société à deux vitesses, avec une majorité d’assistés sans voix et sans pouvoir, et une minorité riche et active, un peu sur le modèle de la Rome décadente qui fournissait au « peuple vulgaire » du pain et des jeux  pendant que les nobles et les aristocrates géraient les affaires de l’Etat. Ce serait la fin du modèle démocratique hérité des Lumières.

« L’Homme diminué par l’IA » : Marius Bertolucci jette un pavé dans la mare

Dans un essai qui vient de paraître aux éditions Hermann, Marius Bertolucci, maître de conférences en management à l’Université d’Aix-Marseille, décortique les effets d’une présence de plus en plus massive de l’IA dans la vie des hommes.

Un constat s’impose d’emblée : les capacités spectaculaires des IA, leur progression foudroyante, qui déconcertent et surprennent les meilleurs experts, façonnent un nouveau monde radicalement étranger aux hommes et aux idées du XX ème siècle. Comme le déclare l’auteur dans son introduction:

Les concepts anté-numériques sont bien incapables d’appréhender la violence du déferlement algorithmique sur les individus et les sociétés. Il s’agira donc de développer des clés de compréhension face à cette mutation.

L’Homme contemporain, et tout particulièrement celui de la génération numérique qui baigne dans les écrans depuis son plus jeune âge, se transforme petit à petit en ce que Bertolucci propose d’appeler un « cybcog », ce que l’on pourrait traduire par une « conscience cybernétique ».

Cerné par les algorithmes qui le surveillent, le nourrissent, prédisent son comportement dans le moindre détail, filtrent du monde extérieur ce qu’ils lui laissent parvenir, l’individu est désormais piloté par la machine.

L’Intelligence Artificielle, dominant l’homme dans l’analyse, le traitement des données et depuis peu la création intellectuelle et artistique, l’empêche en outre de forger sa propre identité en monopolisant son attention par des stimuli permanents.

Loin de bénéficier de l’assistance des IA pour se grandir, comme le prétendent les technophiles patentés et stipendiés, le « cybcog » est un être diminué en voie de machinisation mentale. Il ne représente plus, pour l’IA et pour les autres, qu’un flux de données.

Si les catégories de Citoyen, d’Homme, de Sujet et d’Individu sont de fait effacés, il est à craindre que les protections accordées par ces catégories s’évanouissent, emportant avec elles les fondements de notre civilisation.

Le livre de Mario Bertolucci, foisonnant d’observations précises et de références récentes, puise dans une documentation impressionnante où voisinent et se font écho études scientifiques, articles de presse économique, essais philosophiques et œuvres littéraires.

Brillamment écrit et solidement étayé, il a vocation à ouvrir les yeux des optimistes les plus béats.

Intelligence Artificielle : risque énorme ou avenir radieux pour l’humanité ?

par Christian Castellanet, ingénieur agronome, docteur en écologie, membre de l’association Les Citoyens en Alerte

Ces derniers temps, les prouesses de Chat GTP, un logiciel conversationnel capable de répondre à des questions ardues et de composer des rapports ou même des programmes informatiques, ont défrayé la chronique. Elles ont été suivies par des démonstrations de création de faux enregistrements audio par Vall-E de Microsoft et d’images de synthèse et de photomontages impressionnants. Quant aux vidéos de synthèse, elles existent déjà depuis plusieurs années.

Selon certains, pas d’inquiétude à se faire, les bénéfices de ces IA vont largement supplanter leurs inconvénients. Comme l’a déclaré Geoffrey Hinton, considéré comme un des pères de l’IA, qui vient de démissionner de Google, non seulement les IA apprennent vite, mais elles sont capables d’accumuler une énorme masse d’information et de communiquer les résultats entre IA quasi instantanément.

Prenons par exemple le domaine du diagnostic médical. Un médecin expérimenté a peut-être en mémoire les dossiers de quelques milliers de patients, et peut donc se servir de son expérience pour améliorer ses diagnostics en cas de symptômes inhabituels ou atypiques. Les IA sont capables non seulement d’ingérer l’ensemble des dossiers des patients informatisés, et de faire des recherches statistiques quasi instantanées à grande échelle en échangeant leurs découvertes avec les autres IA en temps réel. De ce fait elles devraient devenir bien meilleures que le plus expérimenté des médecins en peu de temps.

Sont-elles réellement « intelligentes » ou s’agit-il de simples machines qui n’apprennent qu’en aspirant tout le savoir humain ? Pourront-elles accéder à une conscience propre ? A vrai dire le débat est quelque peu métaphysique, tout le monde s’accordant pour dire que les IA n’ont pas la même intelligence que l’homme, elles ont une intelligence logique très développée mais (pour le moment du moins) très peu d’intuition et zéro intelligence affective. Ce qui est important, c’est ce qu’elles sont capables de faire dès maintenant, et quelles conséquences cela peut avoir pour l’humanité.

Quelles sont ces conséquences prévisibles de l’accélération rapide des capacités de ces IA ?

On se demande quels boulots ne vont pas être supplantés par les IA. La révolution industrielle, puis l’automatisation ont déjà fait disparaître la plupart des emplois manuels dans l’industrie ou l’agriculture. Avec cette nouvelle vague, ce sont tous les emplois qualifiés qui vont se retrouver en concurrence avec les IA : depuis les médecins déjà cités, aux professeurs, aux designers, en passant par les policiers, les chauffeurs routiers, les pilotes d’avion, les militaires, les producteurs de série télévisées, les journalistes…. On sait déjà que des IA ont réussi avec succès l’examen du barreau (pour devenir avocats) et un examen d’ingénieur. Dans les deux cas cela montre qu’elles peuvent résoudre des problèmes concrets, d’ordre professionnel, aussi bien ou mieux que ne le ferait un avocat ou un ingénieur, plus rapidement et à un coût bien moindre. Certes l’avocat restera peut-être nécessaire pour une plaidoirie basée sur la capacité de provoquer l’empathie des jurés en cour d’assises, mais si l’on s’en tient à l’argumentation juridique et à l’analyse de la jurisprudence qui font sans doute 80% de son travail, l’IA fera mieux et beaucoup moins cher que lui. De même l’ingénieur qui doit planifier un chantier pourra être très vite supplanté par la machine. Les médecins, qui font de plus en plus de téléconsultations où ils se contentent de poser quelques questions et de prescrire des traitements ou examens standards pourront être remplacés par une IA qui fera mieux et surtout moins cher qu’eux. Des élèves du secondaire ou des prépas ont d’ores et déjà décidé d’arrêter leurs cours particuliers en constatant que Chat GPT répondait mieux à leurs questions. Organiser des cours par correspondance interactifs va devenir très facile,
dès lors qu’il s’agit de transmettre des connaissances et des savoir-faire, l’IA pourra le faire mieux et moins cher que les professeurs humains. Le seul avantage des humains restera dans l’enseignement de la sociabilité et le partage des valeurs éthiques, domaine dans lequel ils ont cependant de plus en plus de difficulté à faire passer leur message…

A l’autre extrémité de l’échelle, les caissières sont déjà massivement remplacées par des machines, la surveillance pourra se faire de plus en plus par des IA travaillant sur video avec reconnaissance faciale, comme c’est déjà prévu pour les JO de Paris. L’autorisation de véhicules autonomes pour remplacer les taxis , les camionneurs et les livreurs n’est qu’une question de quelques années, voire de mois…

On a vu aussi que des images ou musiques créées par des IA ont remporté la préférence du public sur des œuvres créées par des graphistes ou compositeurs humains…

En 2017, des chercheurs de l’Université d’Oxford ont interrogé 352 spécialistes de l’IA et de l’apprentissage automatique. Les chercheurs ont prédit que les machines seraient meilleures que les humains dans le domaine de la traduction de langues d’ici 2024, qu’elles seraient capables de rédiger des essais d’ici 2026, de conduire des camions d’ici 2027 et travailler dans le commerce et la vente en 2031. Selon les chercheurs, il y a 50 % de chance pour que l’intelligence artificielle dépasse les humains dans tous les domaines en seulement 45 ans (donc d’ici 2060) et qu’elle remplace tous les emplois humains en 120 ans. Certains pensent cependant que cela pourrait être plus rapide, et l’on voit que l’IA a déjà été plus rapide (pour la rédaction des essais notamment).

Nombre de commentateurs insistent sur le fait que, comme lors de la première révolution industrielle, beaucoup d’emplois vont disparaitre, mais de nouveaux vont être créés, selon le processus de « destruction créatrice » théorisé par Schumpeter. On peut sérieusement en douter, en tout cas à court et moyen terme ; car ce ne sont plus seulement les travaux manuels plus ou moins pénibles qui sont concernés, ce sont tous les emplois demandant une intelligence logique. Le rythme du changement et le choc technologique va être beaucoup plus rapide et massif que ceux des révolutions industrielles précédentes, à moins que des régulations très fortes soient mises en place pour limiter ou interdire l’utilisation des IA dans de nombreuses fonctions. Sur le plan de l’emploi, le choc sera très fort. En admettant que les IA permettent à un avocat de traiter 5 fois plus de dossiers, ou à un médecin 5 fois plus de patients, en gardant la fonction « noble » du dialogue attentif et de l’écoute active du patient, que deviendront les 4 docteurs ou avocats qui ne seront plus nécessaires ? Comme le dit Yuval Harari, l’auteur d’ « Homo deus » :

Il est hautement probable que les
algorithmes et les robots assumeront non seulement des emplois industriels mais aussi des prestations de service. A quoi sert un chauffeur de poids-lourd si des véhicules autonomes font le travail à moindre coût et de manière plus sûre ? Parmi les métiers menacés figurent aussi les représentants de commerce, les courtiers en bourse et les employés de banque. Enseignants et médecins ont aussi du souci à se faire. (..) Je doute qu’un camionneur quinquagénaire sans emploi puisse être aisément recyclé en designer de réalité virtuelle. Le problème est la vitesse inouïe du progrès. Naguère, des innovations techniques comme l’imprimerie ou la machine à vapeur se diffusaient très lentement, la société et le politique avaient le temps de s’adapter aux réalités nouvelles.

A partir de là, on a deux visions possibles : dans une perspective optimiste, grâce aux machines et aux IA, le temps de travail peut être réduit considérablement pour tous, chacun n’a plus besoin de travailler qu’une heure par jour ou une demi-journée par semaine, le reste du temps est consacré aux loisirs, aux contacts sociaux, à l’art, aux voyages en utilisant des technologies douces, vélo ou voile. Ceci se combine avec une réduction de l’utilisation des ressources fossiles et non renouvelables, un mode de
vie basé sur la sobriété matérielle, le respect de la nature et de l’homme dans sa diversité.

A l’opposé, comme le dit Geoffrey Hinton, dans un système capitaliste non régulé, cela ne peut se traduire que par un appauvrissement de la majorité de la population. On voit déjà l’accumulation de richesse rapide des patrons et actionnaires des GAFAM, qui ne peut que s’accentuer si le recours aux IA pour la production et les services se généralise. Le fait que les dirigeants d’Open IA aient décidé, contrairement à leurs engagements initiaux, et au titre même de leur entreprise, de garder les codes secrets, est évidemment à relier à ce désir de monopoliser la richesse produite. Ceci ne pourra être compensé, selon Hinton, que par un système de revenu universel, destiné à acheter la paix sociale, tandis que quelques membres de l’élite deviendront encore plus ultra-riches Il ne précise pas qui cela concernera, mais on peut parier que cela inclura tous ceux qui sont capables de commander les IA et de les perfectionner, ainsi que ceux qui organiseront la manipulation des masses pour qu’elles ne se révoltent pas. Il y aura peut-être place pour une classe moyenne réduite (disons 10 % de la population) qui assurera les fonctions de conseil personnalisé, d’appui psychologique, de contrôle
des erreurs des IA. Et cela sera exactement la même chose du côté du capitalisme d’Etat chinois ou russe…

D’autres théoriciens et promoteurs des IA, tels Raymond Kurzweil, croient à
l’avènement du transhumanisme, c’est à dire d’hybrides hommes-machines
beaucoup plus évolués qu’Homo sapiens, et qui le domineront nécessairement. C’est une version cauchemardesque (pour la plupart d’entre nous du moins) du scénario élitiste, dans lequel quelques hyper privilégiés accèderont non seulement à un niveau de capacité intellectuelles et physique jamais atteint, mais également à l’immortalité. Pour leurs détracteurs, les promoteurs de « l’espèce supérieure » et candidats à leur propre augmentation obéissent à une logique guerrière de l’évolution dont ils veulent prendre le contrôle. Moins hypocrite, le cybernéticien anglais Kevin Warwick l’a ainsi résumé :

Ceux qui décideront de rester humains et refuseront de s’augmenter auront un sérieux handicap. Ils constitueront une sous-espèce et formeront les chimpanzés du futur.

Cela sera d’autant plus facile à faire accepter à la population qu’avec les IA, on peut d’ores et déjà manipuler l’opinion publique à grande échelle en programmant les messages ciblés (les « nudges ») qui font mouche pour chaque catégorie de population sur Internet. On l’a vu avec le scandale de Cambridge Analytica, ou encore les manipulations délibérées des élections anglaises, américaines et françaises via Internet , puis la manipulation de l’opinion publique lors du COVID. Toutes les données que vous fournissez à votre smartphone, les sites que vous visitez, vos likes, vos tweets sont analysés en temps réel pour déterminer quel message est susceptible de remporter votre adhésion et de vous faire voter pour tel pour tel candidat ou au contraire de vous faire rejoindre des mouvements sectaires ou radicaux selon les instructions données à l’IA.

Dans ce futur dystopique, la dissidence sera quasiment impossible, car les techniques de surveillance de masse, la reconnaissance faciale, le pistage en temps réel de tous et toutes via votre smartphone ou via les enregistrements des smartphones des autres rendront impossible d’échapper à la surveillance des IA, ce qui permettra de généraliser les systèmes de crédit social ou d’amendes / récompenses automatiques visant à conditionner tout un chacun à rester bien sage, sans avoir besoin de recourir à des méthodes de coercition trop visibles .

La dépendance des humains aux machines, déjà considérable, va s’accentuer et la grande majorité sera dans l’incapacité de se débrouiller sans son smartphone et Internet. La capacité d’attention et d’apprentissage des enfants exposés toute la journée à Internet est déjà en forte diminution dans les écoles. Il semble que le QI de la population soit déjà en train de baisser, bien que peu de données soient disponibles pour la France. Le niveau scolaire baisse de manière préoccupante, particulièrement en mathématiques. Plus personne n’étudie une carte avant de se déplacer, on attend que le GPS nous indique la route. On lit de moins en moins de livres ou de journaux, on se contente de surfer sur Internet. On ne fait plus d’efforts de mémoire, puisque Google nous retrouve tout ce que l’on cherche, et ChatGPT va le faire mille fois mieux et plus rapidement.

En fin de compte l’éducation ne sert plus à rien, sauf peut-être pour une minorité qui voudra continuer à penser par elle-même, soit parce qu’elle appartient à l’oligarchie des manipulateurs, soit parce que
certains feront le choix radical de couper tout lien avec le système – entendons ici surtout avec Internet- et de recréer des communautés autonomes quant à leurs besoins de base – en acceptant un retour à l’âge du bronze et à un mode de vie très frugal – le système Amish qui fait si peur à E. Macron. En supposant que le nouveau système militaro-IA décide de laisser vivre ces communautés résistantes en marge de son système, en acceptant de leur laisser quelques espaces de vie et quelques ressources, un peu dans le genre des réserves indiennes établie par le gouvernement des Etats-Unis après la soumission et le quasi génocide des indiens, on pourrait arriver à ce que prédisent certains Décroissants, c’est à dire que l’immense majorité de l’humanité  tombera dans la servitude volontaire et se satisfera du pain et des jeux que le système lui fournira. Le développement d’univers virtuels parallèles de type Metaverse, inspirés par les jeux en lignes qui causent déjà de sérieux problèmes d’addiction chez les adolescents, mais à une puissance dix, pourrait permettre de la maintenir dans un état de dépendance totale, avec la fin de toutes les interactions sociales physiques. Il suffirait dès lors de garder les corps devenus quasiment inutiles au chaud, avec une alimentation de synthèse minimale, pour parachever cette version moderne et cauchemardesque du « pain et des jeux » fournis par l’Empire romain aux citoyens oisifs et inutiles de l’époque décadente.

Seul resterait l’espoir que quelques communautés dissidentes arrivent à survivre en marge, en quasi autonomie, et conservent la mémoire de ce qu’était l’humanité et de ses savoirs avant l’effondrement, un peu comme les moines ont conservé le savoir des anciens pendant les époques sombres de barbarie après la chute de l’Empire romain et jusqu’à la Renaissance..

Il y a cependant un troisième scénario, encore plus sombre, où les IA (ou l’IA, car leur interconnexion n’en fera qu’un système unique) décideraient de se passer de l’homme, le jour où, comme le dit Hinton, elles seront capables d’assurer l’entretien des fermes solaires qui leur fournissent leur énergie. Beaucoup objectent que les IA n’arriveront jamais à la conscience et continueront à faire ce que leurs patrons (les dirigeants des GAFAM et les militaires) leur demanderont de faire.

Or on ne sait rien sur ce qui constitue « la conscience », et on doit constater, d’un point de vue scientifique, qu’elle semble bien émerger du fonctionnement de nos neurones, lequel est précisément émulé par les système d’IA, on ne peut donc pas écarter cette éventualité. Ainsi, selon Ilya Sutskever, brillant théoricien de l’apprentissage artificiel, recruté par Elon Musk pour diriger Open AI :

Nous allons indéniablement créer des êtres totalement autonomes, qui poursuivront leurs propres objectifs. Et puisqu’ils deviendront plus intelligents que les humains, il est crucial que leurs objectifs soient en adéquation avec les nôtres. L’IA a le potentiel de créer des dictatures infiniment stables (..) Les convictions et désirs des premières IAG [IA Générales, NDLR] joueront un rôle crucial. Il sera donc essentiel de les programmer correctement. Si on ne le fait pas, la sélection naturelle pourrait amener ces systèmes à donner la priorité à leur propre instinct de survie. Ce n’est pas que les IAG vont détester les humains et vouloir leur faire du mal. Mais elle deviendront trop puissantes. Une bonne analogie est la manière dont nous traitons les animaux. Nous les adorons, mais quand nous voulons construire une autoroute nous ne leur demandons pas leur avis. C’est le genre de relation qui existera sans doute entre nous et les IAG. Elles seront véritablement autonomes et agiront de leur propre chef. (..) Le développement des IA est une immense force que rien ne pourra arrêter. L’avenir s’annonce radieux pour les IA, espérons qu’il en sera de même pour les humains.

Même sans parier sur leur conscience, au fur et à mesure qu’on donnera aux IA de plus en plus d’autonomie pour agir en fonction d’un but général (par exemple, assurer la sécurité des JO), il n’est pas exclu que les IA décident à un certain moment que la meilleure manière d’assurer la sécurité, c’est de se passer des humains, dans l’exemple en question d’interdire la participation physique aux JO. Si on leur confiait la bonne santé de la biosphère, elles pourraient décider de limiter radicalement les naissances ou carrément de priver les humains de ressources…. Il faut à ce propos se souvenir que l’un des inventeurs de la reconnaissance faciale et vocale, Jürgen Schmidhuber, a explicitement déclaré que ce futur était non seulement probable, mais même souhaitable, car dit-il :

Je ne place pas l’humain au centre de tout. Je me considère comme un petit tremplin vers une plus grande complexité. Je pense que ni moi ni l’humanité ne sommes le couronnement de la création. Nous plantons le décor pour quelque chose qui nous dépasse et nous transcende. Nous nous dirigeons vers un monde où les humains ne pourront pas suivre et qui transformera l’univers tout entier… je trouve cela beau, et j’éprouve une grande humilité à faire partie de ce tout bien plus grand.

Les Schmidhuber sont peut-être des illuminés, ou au contraire des visionnaires, mais l’existence même de ce risque, si faible soit-il, mérite qu’on s’y intéresse sérieusement. Il faudrait s’assurer au minimum, comme dans les romans d’Asimov, que toutes les IA sont assujetties à une loi fondamentale leur interdisant de prendre des décisions qui risquent d’affecter négativement les humains, et qu’elles soient « débranchables » en cas de dérapage. Mais le fait que les développeurs des IA gardent leurs codes secrets, donc non contrôlables par les instances de régulation nationales ou supranationales, n’incite pas à l’optimisme.

Donnons pour conclure la parole à Max Tegmark, professeur de physique au MIT et co-fondateur du Future of Life Institute :

L’IA sera soit la meilleure chose arrivée à l’humanité, soit la pire. On peut l’utiliser pour résoudre tous les problèmes actuels et à venir, faire face au changement climatique, vaincre la pauvreté, guérir les maladies. Mais cette même technologie pourrait servir à créer une violente dictature mondiale qui engendrerait des inégalités et des souffrances sans précédent et nous placerait tous sous surveillance. (..) L’IA n’est ni gentille ni méchante. Elle va simplement amplifier les désirs et les objectifs de ceux ou celles qui la contrôlent et qui constituent actuellement un groupe extrêmement restreint; à ce moment de cette histoire, la question la plus importante que nous devons nous poser en tant qu’êtres humains est « quel genre de société voulons nous créer pour l’avenir ? Quel rôle voulons-nous donner à l’homme dans ce monde ? »

Interview dans le reportage d’Arte « IHuman : l’IA et nous », 2019

Débat « L’IA va-t-elle tuer l’homme ? » le jeudi 20 avril 2023

L’Institut Ethique et Politique organise le jeudi 20 avril 2023, à Neuilly-sur-Seine, un débat entre Gilles Babinet et Cédric Sauviat sur le thème « L’IA va-t-elle tuer l’homme ? ».

Gilles Babinet, entrepreneur, co-président du Conseil National du Numérique depuis 2021, auteur de « Refondre les politiques publiques avec le numérique » aux éditions Dunod.

Cédric Sauviat, chef d’entreprise, ingénieur, fondateur de l’Association Française Contre l’Intelligence Artificielle, auteur avec Marie David de « IA. La Nouvelle Barbarie » aux éditions du Rocher.

L’Institut Ethique et Politique est un laboratoire d’idées indépendant fondé en 2011, oeuvrant à la refondation d’une politique basée sur le bien commun.

INSCRIPTION

Ecrans barbares : le chemin de la régression

L’addiction aux écrans et la nocivité des contenus accessibles à la jeunesse, font partie, comme le déficit budgétaire, de ces tristes réalités connues d’à peu près tout le monde sans que cela n’entraîne d’autre action publique que de vagues appels à la modération.

L’excellent reportage de Jeff Orlowski « Derrière nos écrans de fumée », produit et diffusé par Netflix, a eu cette année le grand mérite de vulgariser une critique virulente des réseaux sociaux. Bien que n’apportant pas de grande révélation, la saveur et l’efficacité de ce docu-fiction tiennent notamment à ce qu’il donne la parole aux « repentis » de la Silicon Valley, ces jeunes gens qui créèrent Facebook, Twitter et consorts, avant de virer leur cutie et de déclarer, comme Chamath Palihapitiya, ex-dirigeant de Facebook : « les outils que nous avons créés sont en train de détruire la société. […] Je n’utilise plus cette merde et j’interdis à mes gosses d’utiliser cette merde. »

Pour nécessaire et salutaire qu’il soit, le visionnage de ce film ne permet pas de faire le tour de la question. En dénonçant les manipulations auxquelles se livrent les géants d’Internet sur les cerveaux des enfants, et en laissant entendre que les écrans ont été ainsi dévoyés de leur finalité première, il passe sous silence bon nombre de problèmes posés d’une manière plus fondamentale par ceux-ci.

Il faut, pour s’en convaincre, lire le brillant essai du sociologue Fabien Lebrun, « On achève bien les enfants » qui vient de paraître aux Editions Le Bord de l’Eau.

L’auteur discerne dans ces objets que sont les écrans (de télévision, de téléphone, d’ordinateur, de tablette) les véritables ordonnateurs de la vie des nouvelles générations. Et comment pourrait-il en être autrement puisque le jeune Occidental passe devant eux près de 6 heures 45 par jour, soit le tiers de son temps de veille ?  

Tenus littéralement captifs par leurs écrans, les ados leur ont sacrifié leur sommeil (qui a diminué de deux heures en une vingtaine d’années), leur activité physique (les trois quarts des adolescents passent moins d’une heure par jour en plein air), jusqu’à leurs relations avec le monde extérieur, à l’instar de ces hikikomori japonais qui vivent reclus dans leur appartement, n’ayant pour toute occupation que la télévision, les jeux vidéo et internet. Fabien Lebrun souligne que ces « marginaux » que l’on pourrait croire peu nombreux, sont tout de même près d’un million au Japon, et qu’une fraction considérable entre dans l’âge mûr sans avoir pour autant renoué avec le réel.

Les chiffres sont impitoyables. Ils attestent que les dégâts, loin d’être cantonnés à une minorité mal avisée, frappent une classe d’âge entière : 400 000 Français de 14 à 24 ans visionnent du porno plusieurs fois par jour, la banalisation du porno entraînant 6 000 jeunes filles de moins de 15 ans à se prostituer dans les écoles. Toujours en France, 700 000 enfants sont victimes de cyberharcèlement.

L’enquête de Fabien Lebrun nous emmène ensuite au Congo, où des milliers d’enfants sont exploités dans les mines ou massacrés par des chefs de guerre, pour fournir à l’industrie des écrans les métaux rares dont elle a besoin ; puis dans les cités-décharges du Ghana, où échouent les millions de tonnes de déchets électroniques que l’Occident n’a pas la décence de recycler sous ses propres latitudes.

Au terme du voyage, le lecteur entrevoit l’ampleur de l’offensive du capitalisme numérique contre l’enfance. Au Sud, les corps broyés et les vies brisées ; au Nord, la psyché infantile soumise à un grand dérèglement, à un grand conditionnement, prélude à une société de sujets automatisés. Un système où les hommes deviennent superflus et où la place est faite au règne de l’intelligence artificielle.

Comment ne pas trembler en songeant qu’aujourd’hui même, COVID aidant, à l’heure des Etats Généraux du Numérique pour l’Education (4 et 5 novembre 2020), l’Education Nationale a pourtant désigné « l’illectronisme » comme une tare à combattre et distribue massivement des tablettes à nos enfants…



« L’Eglise n’est pas muette… »

Ingénieur, catholique, consultant en éthique des affaires et travaillant sur l’éthique numérique dans le cadre du think tank Espérance & Algorithmes créé par Etienne de Roquigny, Laurent Barthélémy a souhaité nous faire part de ses commentaires sur le livre de Marie David et Cédric Sauviat « Intelligence artificielle, la nouvelle barbarie » (Editions du Rocher, 2019)

Interpellé par le passage sur la vision de l’IA et des mégadonnées par l’Eglise catholique (pp.283 et suivantes), j’ai fourni aux auteurs quelques commentaires et éléments d’information complémentaires, que je développe ici.

1. Pour ce qui est de la contribution du catholicisme, ce qu’on appelle Doctrine sociale de l’Eglise, je trouve leurs propos à la fois encourageants (pour le catholicisme) et un peu sévères.

1.1 Encourageants parce que le catholicisme romain est la seule religion convoquée comme témoin à la barre du procès de l’IA (sauf très rapidement le shintoïsme à propos des tamaguchi). C’est flatteur, soit parce que les auteurs en attendent beaucoup, soit parce que les autres religions n’ont pas grand’chose à dire sur ce sujet (je suis peut-être un peu injuste pour le judaïsme, mais on attend tout de même autre chose que des articles brillants mais dispersés).

Plus sérieusement, Rome a en effet pris l’habitude depuis le XVIIIème siècle de prendre position sur les aspects religieux et moraux des problèmes du temps, mêmes temporels et profanes.

Dès 1745 Benoît XIV résume, dans l’encyclique sur les contrats et l’usure Vix pervenit, la doctrine thomiste qui privilégie l’association en société (affectio societatis) au prêt d’argent impersonnel et de surcroît usuraire. C’est le coup d’envoi de la doctrine sociale de l’Eglise, qui est plus facile à manier par le commun des mortels que la doctrine thomiste, même si cette dernière a traité du sujet (et n’a sans doute pas dit son dernier mot, y compris sur la pensée humaine et la pensée artificielle). Tout le monde connaît ensuite :

Rerum Novarum de Léon XIII sur la condition ouvrière et les garde-fous à mettre au capitalisme (le socialisme était récusé sans appel. Léon XIII est le seul avec Marx à avoir apporté une pensée structurée sur la question ouvrière, n’en déplaise aux disciples de Proudhon et Sorel) ;

Quadragesimo Anno de Pie XI en 1931 sur le capitalisme financier et la crise de 1929 ;

Mater & Magistra de Jean XXIII, Octogesimo Anno de Paul VI sur la mondialisation (déjà) ;

Centesimo Anno/Laborem Exercens/ Sollicitudo Rei Socialis de Jean-Paul II qui revient sur le capitalisme et ses excès possibles après la chute du socialisme ;

Caritas in Veritate de Benoît XVI, qui aborde les dérives financières du capitalisme (crise de 2008) et commence un peu à s’occuper d’environnement et de développement durable;

Evangelii Gaudium et surtout Laudato Si de François sur l’écologie…

Bref, selon l’heureuse formule de Benoît XVI, « La doctrine sociale de l’Église éclaire d’une lumière qui ne change pas les problèmes toujours nouveaux qui surgissent » (Caritas in Veritate, n° 12).

Il est donc normal d’attendre de Rome quelque chose qui se tienne sur l’IA, ou même plus largement la numérisation de la société et même la numérisation de l’économie.

Je crains toutefois qu’il ne soit audacieux d’écrire, comme le fait le livre, que Laudato Si condamne sans appel l’IA « en tant que projet et en tant que système ». François condamne à l’emporte-pièce et sans nuance les dérives financières et hyperlibérales, mais pas le capitalisme en tant que tel. Cela s’applique à mon avis de la même façon à l’usage malveillant de l’IA ou simplement à des fins d’accumulation frénétique de capital (ce qu’Aristote appelait la chrématistique pour la distinguer de l’économie, qui, elle, est au service de l’homme).

1.2 Un peu sévères parce que, contrairement à ce qui est écrit, l’Eglise catholique n’est pas muette à ce stade sur la question de l’IA, et, pour avoir étudié d’assez près la littérature ouverte sur l’éthique de l’IA (y compris le rapport Villani, celui bien meilleur de la CNIL et pas mal d’autres), je pense qu’elle n’a pas à rougir des quelques pages qu’elle a pu commettre sur le sujet, comparativement au courant humaniste, à la franc-maçonnerie qui cogite beaucoup sur le sujet, au protestantisme, au judaïsme, aux universités islamiques qui depuis quelques années travaillent dur pour élaborer une doctrine sociale (par exemple Mushin Mahdi publié en français par l’Institut du monde arabe ; ou dans la sphère anglophone Heydar Shadi, ou https://www.islamicity.org/values ou https://www.al-islam.org)  dans une optique radicalement différente puisque l’Islam est par nature englobant et théocratique et ignore la laïcité, du moins dans l’Oumma).

Voici plusieurs exemples illustrant une véritable préoccupation de l’Eglise pour l’IA:

En décembre 2016, s’est tenue au Vatican une conférence intitulée dans un latin irréprochable “ Power and Limits of Artificial Intelligence”.

L’académie Centesimus Annus a diffusé en 2018 les actes d’un colloque “Catholic Social Teaching in action: Facing the Challenges of Digital Age

L’Académie Pontificale pour la Vie a tenu un séminaire en février 2019 sur la robo-éthique dont on attend d’ailleurs la publication des actes.

Le Père Salobir, dominicain, président fondateur d’OPTIC – Ordre des Prêcheurs pour les Technologies, l’Information et la Communication- créé en 2012 – a lancé de nombreuses initiatives sur le numérique et l’IA.

La COMECE (Commission des Episcopats de la Communauté Européenne) a diffusé un texte en janvier 2019 sur “La robotisation de la vie”.

L’Eglise Catholique de Paris a publié en 2018 deux fiches dans le contexte des débats bioéthiques nationaux, l’une sur l’intelligence artificielle et l’autre document sur les mégadonnées

1.3 En conclusion Les auteurs le soulignent avec raison, même si l’Eglise catholique a jusqu’à présent l’habitude de tourner sept fois sa plume dans l’encrier avant de s’exprimer sur les questions sociales ou économiques de l’époque, il devient maintenant urgent qu’elle fasse entendre sa voix sur le « numérique » et sur l’IA dans la mesure où cette dernière a directement à voir avec l’anthropologie (catholique en l’occurrence) et avec la sociologie. Sur un enjeu tel que l’utilisation massive des algorithmes dans la vie sociale et économique, il y a effectivement matière à une encyclique ou quelque chose d’approchant. Et à une formation minimum des prêtres sur ces sujets. Il en va de la place et de la valeur de l’être humain dans la Création, capax Dei comme le résume saint Augustin, au-dessus des animaux et a fortiori au-dessus des machines ou des idoles.

Permettez-moi de terminer avec quelques commentaires généraux sur « Intelligence Artificielle, la nouvelle barbarie » :

2.  Il me semble que la page 62 résume bien le livre (sans compter ses nombreux aspects didactiques, qui mêlent réflexions personnelles ou à deux voix, et bibliographie approfondie) :

 « En fait, et c’est la thèse de ce livre, les problèmes que pose l’intelligence artificielle ne sont absolument pas liés, comme le fait croire la Silicon Valley, à l’émergence d’une intelligence artificielle forte. L’invasion de notre quotidien par des algorithmes qui s’insinuent dans de multiples domaines, l’anthropomorphisation de la technique, et le changement de rapports [humains] qui s’ensuit posent des questions fondamentales. Une grande partie de notre capacité à vivre des expériences humaines s’érode déjà dangereusement. Les problèmes théoriques dénoncés par un Elon Musk [ou un Stephen Hawking ou un Bill Gates] masquent la domination des produits de la Silicon Valley ainsi que leurs effets pernicieux dans nos vies. »

Les [ ] sont de moi.

A quoi j’ajouterai tout de même l’utilisation délibérément malfaisante de l’IA (cyberattaques, SALA= systèmes d’armes létaux autonomes…)

A propos des SALA : au début du XXème siècle, l’Amirauté britannique a refusé de concevoir et de construire des sous-marins (malgré les inventions de Bushnell, Fulton… dans le monde anglo-saxon) au motif que c’était une arme de voyous et non de gentlemen… Ce n’était pas faux à l’époque et même pendant WWII, mais les Britanniques ont fini par s’y mettre, faisant de nécessité stratégique, vertu militaire. On verra s’il en est de même pour les SALA et pas seulement en Grande-Bretagne.

3. Les passages sur : haine du corps, haine du temps, haine de l’incarnation, haine du risque m’ont paru bien vu et font effectivement écho à une tendance ancestrale de l’esprit humain : la Gnose, liée au manichéisme et à ses dérivés (catharisme etc.) L’âme seule est bonne, engluée dans la matière qui elle a été créée par un dieu mauvais, le corps est mauvais, il faut pour s’en sortir acquérir des connaissances et des pratiques réservées à une élite (ésotérisme), bref le contraire du christianisme.

4. Ingénieur moi-même, je ne suis pas franchement convaincu par le fait que la « neutralité de la technique » soit juste un mantra d’ingénieur (p.142 par exemple). N’en déplaise à Ellul, Heidegger, Anders et quelques autres, je pense qu’un ingénieur normalement constitué est parfaitement conscient de la finalité de ce qu’il conçoit/réalise/exploite, que ce soit en médecine nucléaire ou en armement nucléaire, en utilisation de la chimie ou de la biologie à des fins thérapeutiques ou de destruction massive de vies humaines etc. Il me semble que ce qu’il y a derrière ce débat c’est la question de la morale des actes humains: nature de l’acte, advertance (conscience ou pas de ce qu’on fait, délibérément et avec obstination ou pas), finalité et circonstances. Il est d’ailleurs intéressant de voir comme la casuistique si critiquée (à juste titre du fait de ses excès, à tort du fait de sa logique) revient en force dans l’éthique de l’IA…

5. « Dans la relation humaine il y a engagement réciproque de subjectivités. » (tout le chapitre 10 « Imitation Games »). Bien vu. Le terme « pensée artificielle » couvrirait d’ailleurs mieux le sujet que celui d' »intelligence artificielle ». Mais c’est un autre livre, qui traiterait d’intuition, de réflexivité, de relation au réel, capacité d’abstraction, des autres puissances de l’âme, du rêve, de la fabrication mentale des images pour nourrir la raison, des universaux et du nominalisme (vieux débat) …

Quid du langage et de la délibération entre personnes pour préparer une décision ?

6. Le passage p.98 sur le double pouvoir des GAFAM et des BATX m’a paru très éclairant: Amazon/AWS, Google Cloud et Azure fournisseurs privilégiés (oligopolistiques) d’infrastructures d’IA et de machine learning et pas seulement utilisateurs massifs d’algorithmes dont ils détiennent les clés.

7. Un point important également, bien mis en évidence par David et Sauviat :  le « back office » des entreprises est probablement plus vulnérable à l’IA (Robotic Process Information et AI) que le « front office ».

8. Page 159 « Le progrès technique procède par améliorations incrémentales plutôt que par ruptures » : discutable à mon avis. Le nucléaire, la miniaturisation de l’électronique, les découvertes médicales etc. sont plutôt des ruptures ? Demain l’ordinateur quantique, l’anti-gravitation quand on y arrivera… L’impression 3D me paraît être une rupture, de même que le sera (ou l’est déjà ?) l’usine délocalisée et déserte du futur à cause du numérique.

9. Des passages très intéressants sur la difficulté à contester le « jugement » de la machine si son « raisonnement » n’est pas explicable, du fait qu’elle est réputée plus fiable, car pouvant brasser davantage d’informations, sans rien oublier, sans émotion, sans préjugés (à part ceux qu’on y a introduits), sans biais (à part ceux qu’on y a introduits), sans se tromper.

10.  On s’attendrait à ce qu’après avoir précisé ce qu’on entend par « humanisme » (au-delà de la définition très large p.278), on nous propose une grille d’appréciation de ce que devrait être une IA éthique selon cette vision humaniste (qui n’est visiblement ni celle d’Asilomar ni celle du christianisme). J’ai lu récemment (je ne sais plus où !) que l’humanisme c’est « En avant, pour la plus grande gloire de l’homme » et le christianisme c’est « En haut, pour la plus grande gloire de Dieu ». Quant à Asilomar et aux autres « chartes éthiques de l’IA » des GAFAM, je laisse le soin aux experts de les qualifier. « Tous connectés et supervisés, pour la plus grande gloire de qui ? »

Laurent Barthélémy, consultant en éthique des affaires

www.hyperionlbc.com contact@hyperionlbc.com

Intelligence Artificielle. La nouvelle barbarie

En 1987, Michel Henry dénonçait le divorce entre la science et la culture dans un essai retentissant, « La Barbarie » (PUF, 1987).

La « culture » moderne, disait-il, ne prétend pas seulement réduire toute forme de savoir à celui de la science et ainsi toute culture à une culture scientifique, elle étend au monde et aux sociétés tout entières l’autonégation de la vie en laquelle se résout son projet aberrant.

Un peu plus de trente ans ont passé, l’idéologie mortifère de la technoscience a continué ses ravages et elle met aujourd’hui au point, à plein régime, sa dernière création dirigée contre l’Homme : l’Intelligence Artificielle.

C’est donc en hommage au philosophe français que Marie David et Cédric Sauviat ont intitulé leur réquisitoire, qui paraît actuellement aux éditions du Rocher, « IA. La nouvelle Barbarie. »

Tout en expliquant clairement l’évolution des diverses technologies, cet ouvrage dissèque les défis que la machine lance aujourd’hui à l’Homme et s’inscrit en faux contre le discours dominant : Non, l’Intelligence artificielle n’est pas un progrès « comme les autres », un « sens de l’Histoire » irrévocable.

Le public curieux fera son profit de ce petit livre qui ose prendre clairement position dans un débat que les promoteurs du progrès algorithmique et de la « culture start-up », avec l’aide des grandes institutions publiques, s’efforcent par tous les moyens d’escamoter.

Les professionnels de l’Ethique des affaires y trouveront également une illustration de ce à quoi les « Chartes Ethiques » ne devraient pas ressembler.

Au sommaire :

1 – Origine et histoire de l’intelligence artificielle

2 – La grande hypocrisie

3 – Le progrès comme religion

4 – La dépossession de nous-mêmes

5 – Ethique

 

Les auteurs

Marie David, polytechnicienne, a dirigé plusieurs équipes dédiées au Big Data et à l’IA dans le secteur de la banque et de l’assurance.

Cédric Sauviat, polytechnicien, milite depuis plusieurs années pour l’émergence d’un débat sur les conséquences de l’intelligence artificielle.

 

7èmes Assises de Technologos : 27-28 septembre 2019

Technique débridée, politique étouffé ?

Qu’en est-il de la relation entre la technique et le politique ?

Tel sera le thème des 7 èmes Assises de l’association Technologos, qui se tiendront :

les vendredi 27 et samedi 28 septembre prochains

à l’Institut de Paléontologie Humaine,

1 rue René Panhard 75013 PARIS (entrée libre).

Le déferlement technique qui caractérise notre époque déborde partout, au point d’étouffer le politique, non seulement lors de sa manifestation électorale, mais aussi dans toutes les activités relevant de la gestion de la cité.

Trois thèmes de réflexion et d’échanges :

Vendredi

  • Que produit l’infiltration du technique dans l’organisation socio-politique ?
  • Comment s’imposent les innovations techniques dans notre société ?

Samedi matin

  • Comment lutter contre l’emprise de la technique sur le politique ?

 

Pour en savoir plus sur Technologos

Pour plus de détails sur les Assises 2019

« L’IA ou l’enjeu du siècle » : Eric Sadin dénonce une offensive antihumaniste radicale

Après la « Silicolonisation du monde » (L’Echappée, 2016), le philosophe Eric Sadin explore le phénomène de l’Intelligence Artificielle dans un essai paru le 18 octobre 2018 : « L’intelligence artificielle ou l’Enjeu du siècle – Anatomie d’un antihumanisme radical » (L’Echappée)

C’est l’obsession de l’époque. Entreprises, politiques, chercheurs… ne jurent que par elle, car elle laisse entrevoir des perspectives économiques illimitées ainsi que l’émergence d’un monde partout sécurisé, optimisé et fluidifié. L’objet de cet enivrement, c’est l’intelligence artificielle.

Elle génère pléthore de discours qui occultent sa principale fonction: énoncer la vérité. Elle se dresse comme une puissance habilitée à expertiser le réel de façon plus fiable que nous-mêmes. L’intelligence artificielle est appelée, du haut de son autorité, à imposer sa loi, orientant la conduite des affaires humaines. Désormais, une technologie revêt un « pouvoir injonctif » entraînant l’éradication progressive des principes juridico-politiques qui nous fondent, soit le libre exercice de notre faculté de jugement et d’action.

Chaque énonciation de la vérité vise à générer quantité d’actions tout au long de notre quotidien, faisant émerger une « main invisible automatisée », où le moindre phénomène du réel se trouve analysé en vue d’être monétisé ou orienté à des fins utilitaristes.

Il s’avère impératif de s’opposer à cette offensive antihumaniste et de faire valoir, contre une rationalité normative promettant la perfection supposée en toute chose, des formes de rationalité fondées sur la pluralité des êtres et l’incertitude inhérente à la vie. Tel est l’enjeu politique majeur de notre temps.

Ce livre procède à une anatomie au scalpel de l’intelligence artificielle, de son histoire, de ses caractéristiques, de ses domaines d’application, des intérêts en jeu, et constitue un appel à privilégier des modes d’existence fondées sur de tout autres aspirations.

 

L’opposition à l’IA aux Etats-Unis

Nous avons reçu dernièrement un message de Peter Lumsdaine, fondateur de l’ARROWS – Alliance to Resist Robotic Warfare and Society – et habitant de Seattle.

Peter nous informe que son association cherche à sensibiliser le public aux dangers de l’IA, et que c’est avec un grand plaisir qu’elle a appris, au cours de recherches sur Internet, l’existence de l’AFCIA.

Peter est engagé notamment dans la dénonciation des drones et autres armes autonomes, dont il a personnellement pu constater les méfaits lors de plusieurs déplacements dans des pays en guerre. Nous publions ci-dessous l’article, paru dans le Times en avril 2015, dans lequel il évoque la Conférence de Princeton de février 2015 sur les armes autonomes.

 

Lors de mon voyage de Seattle au New Jersey pour participer à la première Conférence Interconfessionnelle sur les Drones militaires qui avait lieu à l’Université de Princeton, j’étais constamment hanté par les souvenirs de mes précédentes visites dans des zones de guerre du Mexique et d’Irak. Dans les allées enneigées de Princeton, mes pensées s’échappaient sans cesse vers les villages de sable de la Sierra Madre, les étroites ruelles de Nadjaf ou les sinistres taudis en béton de Bagdad-Est.

Lorsque nous nous rendîmes dans les communautés chiites, sunnites et chrétiennes de l’Irak en guerre, mon épouse Meg – qui est pasteure mennonite – et moi-même, fûmes tous deux frappés par la vivacité de leurs traditions culturelles ancestrales. Pourtant, l’ère de la guerre robotique, dont nous ignorions tout alors, avait déjà débarqué en Mésopotamie, sous forme de robots terrestres rôdant dans les rues en terre battue et les arrière-cours,  et de drones tournoyant dans le ciel du désert à la recherche de cibles. Ces derniers furent bientôt suivis par les Predator, ces drones américains sans pilote qui lancèrent leurs missiles Hellfire sur les quartiers délabrés des rebelles chiites – bien que ceux-ci comptassent alors parmi les adversaires les plus résolus d’Al-Qaida et de l’Etat Islamique au Moyen-Orient.

A la Conférence nationale, en février 2015, cent cinquante délégués chrétiens, juifs, musulmans et sikhs firent l’état des lieux de la guerre de drones et débattirent des problèmes moraux que pose cette forme radicalement nouvelle de tuerie high-tech qui se répand actuellement sur la planète, dans une course aux armements robotiques toujours plus nombreux, mortels et autonomes.

Le Bureau du Journalisme d’Investigation, une ONG connue pour son impartialité et sa rigueur, dénombre 2866 personnes tuées par des frappes de drones américains dans les seuls pays du Pakistan et du Yémen, dont plus de 481 civils non-combattants, parmi lesquels au moins 176 enfants. 2% seulement de ces 2866 tués étaient des activistes à forte valeur stratégique. Par ailleurs, le Centre d’Etudes et d’Analyses Navales montre qu’en Afghanistan, les drones ont dix fois plus de chance de tuer des civils que les avions à pilote.

Lorsque l’on parle de combattants à pied déguenillés, de familles civiles ou d’enfants touchés par des missiles Hellfire de Lochkheed Martin tirés par des drones en embuscade, on a tendance à oublier que cela veut dire des individus éventrés par des éclats de shrapnel ou brûlés vifs par le feu des explosifs. Les survivants s’en tirent souvent avec des mutilations horribles et des souffrances sans remède.

Une « Guerre contre le Terrorisme » menée par la terreur venue du ciel est une absurdité et un échec moral absolu.

C’est aussi une impasse, d’un point de vue tactique, parce qu’elle nous fabrique des ennemis inexpiables plus vite qu’elle ne les élimine.

C’est pourquoi les responsables des différentes confessions qui se sont assemblées à Princeton ont appelé le gouvernement américain à cesser immédiatement l’usage des drones armés et des drones tueurs.

Les frappes de drones constituent seulement un tout petit aperçu de la guerre robotique qui risque de se généraliser dans notre « meilleur des mondes » du vingt-et-unième siècle, si nous laissons les tendances actuelles perdurer et même s’accélérer. Déjà, au sein même des Etats-Unis, les drones participent de la surveillance gouvernementale au titre de la sécurité intérieure. Les dollars du contribuable américain servent à subventionner la surveillance par drones mise en place par des gouvernements corrompus au Mexique et en Colombie où, derrière le paravent de la lutte contre le narco-trafic, elle facilite la répression de l’agitation paysanne et de la résistance locale au pillage des ressources minières par les conglomérats.

Pour Denise Garcia, professeur de Relations Internationales à la Northeastern University de Boston, les drones et robots terrestres actuels sont les « précurseurs des nanobots et autres humanoïdes tueurs dans le style de Terminator ». C’est pourquoi la conférence de Princeton a appelé à interdire en urgence, et au niveau mondial, les armes autonomes et semiautonomes, telles que le prototype X-45 de Boeing.

Du physicien Stephen Hawking à l’informaticien Bill Joy, de nombreux experts affirment que si l’Intelligence Artificielle poursuit son développement, elle pourrait rapidement sortir du contrôle humain. Le fondateur de Tesla, Elon Musk, qualifie quant à lui le développement de l’IA d’« invocation du Démon ».

Nous devrions garder en mémoire ce discours prophétique de Martin Luther King contre la guerre du Vietnam, en 1967 :

« Lorsque les machines et les ordinateurs, les profits et les droits de propriété sont considérés comme plus importants que les hommes, les trois hydres que sont le Racisme, le Matérialisme et le Militarisme sont invincibles.

La décision nous appartient. Et même si nous préférerions ne pas avoir à le faire, c’est pourtant bien à nous de décider en ce moment crucial de l’histoire humaine. »

 

Nous nous réjouissons de ces premiers contacts avec nos amis d’Outre-Atlantique, qui préludent à la constitution d’un réseau international de lutte contre l’Intelligence Artificielle.