Intelligence Artificielle : risque énorme ou avenir radieux pour l’humanité ?

par Christian Castellanet, ingénieur agronome, docteur en écologie, membre de l’association Les Citoyens en Alerte

Ces derniers temps, les prouesses de Chat GTP, un logiciel conversationnel capable de répondre à des questions ardues et de composer des rapports ou même des programmes informatiques, ont défrayé la chronique. Elles ont été suivies par des démonstrations de création de faux enregistrements audio par Vall-E de Microsoft et d’images de synthèse et de photomontages impressionnants. Quant aux vidéos de synthèse, elles existent déjà depuis plusieurs années.

Selon certains, pas d’inquiétude à se faire, les bénéfices de ces IA vont largement supplanter leurs inconvénients. Comme l’a déclaré Geoffrey Hinton, considéré comme un des pères de l’IA, qui vient de démissionner de Google, non seulement les IA apprennent vite, mais elles sont capables d’accumuler une énorme masse d’information et de communiquer les résultats entre IA quasi instantanément.

Prenons par exemple le domaine du diagnostic médical. Un médecin expérimenté a peut-être en mémoire les dossiers de quelques milliers de patients, et peut donc se servir de son expérience pour améliorer ses diagnostics en cas de symptômes inhabituels ou atypiques. Les IA sont capables non seulement d’ingérer l’ensemble des dossiers des patients informatisés, et de faire des recherches statistiques quasi instantanées à grande échelle en échangeant leurs découvertes avec les autres IA en temps réel. De ce fait elles devraient devenir bien meilleures que le plus expérimenté des médecins en peu de temps.

Sont-elles réellement « intelligentes » ou s’agit-il de simples machines qui n’apprennent qu’en aspirant tout le savoir humain ? Pourront-elles accéder à une conscience propre ? A vrai dire le débat est quelque peu métaphysique, tout le monde s’accordant pour dire que les IA n’ont pas la même intelligence que l’homme, elles ont une intelligence logique très développée mais (pour le moment du moins) très peu d’intuition et zéro intelligence affective. Ce qui est important, c’est ce qu’elles sont capables de faire dès maintenant, et quelles conséquences cela peut avoir pour l’humanité.

Quelles sont ces conséquences prévisibles de l’accélération rapide des capacités de ces IA ?

On se demande quels boulots ne vont pas être supplantés par les IA. La révolution industrielle, puis l’automatisation ont déjà fait disparaître la plupart des emplois manuels dans l’industrie ou l’agriculture. Avec cette nouvelle vague, ce sont tous les emplois qualifiés qui vont se retrouver en concurrence avec les IA : depuis les médecins déjà cités, aux professeurs, aux designers, en passant par les policiers, les chauffeurs routiers, les pilotes d’avion, les militaires, les producteurs de série télévisées, les journalistes…. On sait déjà que des IA ont réussi avec succès l’examen du barreau (pour devenir avocats) et un examen d’ingénieur. Dans les deux cas cela montre qu’elles peuvent résoudre des problèmes concrets, d’ordre professionnel, aussi bien ou mieux que ne le ferait un avocat ou un ingénieur, plus rapidement et à un coût bien moindre. Certes l’avocat restera peut-être nécessaire pour une plaidoirie basée sur la capacité de provoquer l’empathie des jurés en cour d’assises, mais si l’on s’en tient à l’argumentation juridique et à l’analyse de la jurisprudence qui font sans doute 80% de son travail, l’IA fera mieux et beaucoup moins cher que lui. De même l’ingénieur qui doit planifier un chantier pourra être très vite supplanté par la machine. Les médecins, qui font de plus en plus de téléconsultations où ils se contentent de poser quelques questions et de prescrire des traitements ou examens standards pourront être remplacés par une IA qui fera mieux et surtout moins cher qu’eux. Des élèves du secondaire ou des prépas ont d’ores et déjà décidé d’arrêter leurs cours particuliers en constatant que Chat GPT répondait mieux à leurs questions. Organiser des cours par correspondance interactifs va devenir très facile,
dès lors qu’il s’agit de transmettre des connaissances et des savoir-faire, l’IA pourra le faire mieux et moins cher que les professeurs humains. Le seul avantage des humains restera dans l’enseignement de la sociabilité et le partage des valeurs éthiques, domaine dans lequel ils ont cependant de plus en plus de difficulté à faire passer leur message…

A l’autre extrémité de l’échelle, les caissières sont déjà massivement remplacées par des machines, la surveillance pourra se faire de plus en plus par des IA travaillant sur video avec reconnaissance faciale, comme c’est déjà prévu pour les JO de Paris. L’autorisation de véhicules autonomes pour remplacer les taxis , les camionneurs et les livreurs n’est qu’une question de quelques années, voire de mois…

On a vu aussi que des images ou musiques créées par des IA ont remporté la préférence du public sur des œuvres créées par des graphistes ou compositeurs humains…

En 2017, des chercheurs de l’Université d’Oxford ont interrogé 352 spécialistes de l’IA et de l’apprentissage automatique. Les chercheurs ont prédit que les machines seraient meilleures que les humains dans le domaine de la traduction de langues d’ici 2024, qu’elles seraient capables de rédiger des essais d’ici 2026, de conduire des camions d’ici 2027 et travailler dans le commerce et la vente en 2031. Selon les chercheurs, il y a 50 % de chance pour que l’intelligence artificielle dépasse les humains dans tous les domaines en seulement 45 ans (donc d’ici 2060) et qu’elle remplace tous les emplois humains en 120 ans. Certains pensent cependant que cela pourrait être plus rapide, et l’on voit que l’IA a déjà été plus rapide (pour la rédaction des essais notamment).

Nombre de commentateurs insistent sur le fait que, comme lors de la première révolution industrielle, beaucoup d’emplois vont disparaitre, mais de nouveaux vont être créés, selon le processus de « destruction créatrice » théorisé par Schumpeter. On peut sérieusement en douter, en tout cas à court et moyen terme ; car ce ne sont plus seulement les travaux manuels plus ou moins pénibles qui sont concernés, ce sont tous les emplois demandant une intelligence logique. Le rythme du changement et le choc technologique va être beaucoup plus rapide et massif que ceux des révolutions industrielles précédentes, à moins que des régulations très fortes soient mises en place pour limiter ou interdire l’utilisation des IA dans de nombreuses fonctions. Sur le plan de l’emploi, le choc sera très fort. En admettant que les IA permettent à un avocat de traiter 5 fois plus de dossiers, ou à un médecin 5 fois plus de patients, en gardant la fonction « noble » du dialogue attentif et de l’écoute active du patient, que deviendront les 4 docteurs ou avocats qui ne seront plus nécessaires ? Comme le dit Yuval Harari, l’auteur d’ « Homo deus » :

Il est hautement probable que les
algorithmes et les robots assumeront non seulement des emplois industriels mais aussi des prestations de service. A quoi sert un chauffeur de poids-lourd si des véhicules autonomes font le travail à moindre coût et de manière plus sûre ? Parmi les métiers menacés figurent aussi les représentants de commerce, les courtiers en bourse et les employés de banque. Enseignants et médecins ont aussi du souci à se faire. (..) Je doute qu’un camionneur quinquagénaire sans emploi puisse être aisément recyclé en designer de réalité virtuelle. Le problème est la vitesse inouïe du progrès. Naguère, des innovations techniques comme l’imprimerie ou la machine à vapeur se diffusaient très lentement, la société et le politique avaient le temps de s’adapter aux réalités nouvelles.

A partir de là, on a deux visions possibles : dans une perspective optimiste, grâce aux machines et aux IA, le temps de travail peut être réduit considérablement pour tous, chacun n’a plus besoin de travailler qu’une heure par jour ou une demi-journée par semaine, le reste du temps est consacré aux loisirs, aux contacts sociaux, à l’art, aux voyages en utilisant des technologies douces, vélo ou voile. Ceci se combine avec une réduction de l’utilisation des ressources fossiles et non renouvelables, un mode de
vie basé sur la sobriété matérielle, le respect de la nature et de l’homme dans sa diversité.

A l’opposé, comme le dit Geoffrey Hinton, dans un système capitaliste non régulé, cela ne peut se traduire que par un appauvrissement de la majorité de la population. On voit déjà l’accumulation de richesse rapide des patrons et actionnaires des GAFAM, qui ne peut que s’accentuer si le recours aux IA pour la production et les services se généralise. Le fait que les dirigeants d’Open IA aient décidé, contrairement à leurs engagements initiaux, et au titre même de leur entreprise, de garder les codes secrets, est évidemment à relier à ce désir de monopoliser la richesse produite. Ceci ne pourra être compensé, selon Hinton, que par un système de revenu universel, destiné à acheter la paix sociale, tandis que quelques membres de l’élite deviendront encore plus ultra-riches Il ne précise pas qui cela concernera, mais on peut parier que cela inclura tous ceux qui sont capables de commander les IA et de les perfectionner, ainsi que ceux qui organiseront la manipulation des masses pour qu’elles ne se révoltent pas. Il y aura peut-être place pour une classe moyenne réduite (disons 10 % de la population) qui assurera les fonctions de conseil personnalisé, d’appui psychologique, de contrôle
des erreurs des IA. Et cela sera exactement la même chose du côté du capitalisme d’Etat chinois ou russe…

D’autres théoriciens et promoteurs des IA, tels Raymond Kurzweil, croient à
l’avènement du transhumanisme, c’est à dire d’hybrides hommes-machines
beaucoup plus évolués qu’Homo sapiens, et qui le domineront nécessairement. C’est une version cauchemardesque (pour la plupart d’entre nous du moins) du scénario élitiste, dans lequel quelques hyper privilégiés accèderont non seulement à un niveau de capacité intellectuelles et physique jamais atteint, mais également à l’immortalité. Pour leurs détracteurs, les promoteurs de « l’espèce supérieure » et candidats à leur propre augmentation obéissent à une logique guerrière de l’évolution dont ils veulent prendre le contrôle. Moins hypocrite, le cybernéticien anglais Kevin Warwick l’a ainsi résumé :

Ceux qui décideront de rester humains et refuseront de s’augmenter auront un sérieux handicap. Ils constitueront une sous-espèce et formeront les chimpanzés du futur.

Cela sera d’autant plus facile à faire accepter à la population qu’avec les IA, on peut d’ores et déjà manipuler l’opinion publique à grande échelle en programmant les messages ciblés (les « nudges ») qui font mouche pour chaque catégorie de population sur Internet. On l’a vu avec le scandale de Cambridge Analytica, ou encore les manipulations délibérées des élections anglaises, américaines et françaises via Internet , puis la manipulation de l’opinion publique lors du COVID. Toutes les données que vous fournissez à votre smartphone, les sites que vous visitez, vos likes, vos tweets sont analysés en temps réel pour déterminer quel message est susceptible de remporter votre adhésion et de vous faire voter pour tel pour tel candidat ou au contraire de vous faire rejoindre des mouvements sectaires ou radicaux selon les instructions données à l’IA.

Dans ce futur dystopique, la dissidence sera quasiment impossible, car les techniques de surveillance de masse, la reconnaissance faciale, le pistage en temps réel de tous et toutes via votre smartphone ou via les enregistrements des smartphones des autres rendront impossible d’échapper à la surveillance des IA, ce qui permettra de généraliser les systèmes de crédit social ou d’amendes / récompenses automatiques visant à conditionner tout un chacun à rester bien sage, sans avoir besoin de recourir à des méthodes de coercition trop visibles .

La dépendance des humains aux machines, déjà considérable, va s’accentuer et la grande majorité sera dans l’incapacité de se débrouiller sans son smartphone et Internet. La capacité d’attention et d’apprentissage des enfants exposés toute la journée à Internet est déjà en forte diminution dans les écoles. Il semble que le QI de la population soit déjà en train de baisser, bien que peu de données soient disponibles pour la France. Le niveau scolaire baisse de manière préoccupante, particulièrement en mathématiques. Plus personne n’étudie une carte avant de se déplacer, on attend que le GPS nous indique la route. On lit de moins en moins de livres ou de journaux, on se contente de surfer sur Internet. On ne fait plus d’efforts de mémoire, puisque Google nous retrouve tout ce que l’on cherche, et ChatGPT va le faire mille fois mieux et plus rapidement.

En fin de compte l’éducation ne sert plus à rien, sauf peut-être pour une minorité qui voudra continuer à penser par elle-même, soit parce qu’elle appartient à l’oligarchie des manipulateurs, soit parce que
certains feront le choix radical de couper tout lien avec le système – entendons ici surtout avec Internet- et de recréer des communautés autonomes quant à leurs besoins de base – en acceptant un retour à l’âge du bronze et à un mode de vie très frugal – le système Amish qui fait si peur à E. Macron. En supposant que le nouveau système militaro-IA décide de laisser vivre ces communautés résistantes en marge de son système, en acceptant de leur laisser quelques espaces de vie et quelques ressources, un peu dans le genre des réserves indiennes établie par le gouvernement des Etats-Unis après la soumission et le quasi génocide des indiens, on pourrait arriver à ce que prédisent certains Décroissants, c’est à dire que l’immense majorité de l’humanité  tombera dans la servitude volontaire et se satisfera du pain et des jeux que le système lui fournira. Le développement d’univers virtuels parallèles de type Metaverse, inspirés par les jeux en lignes qui causent déjà de sérieux problèmes d’addiction chez les adolescents, mais à une puissance dix, pourrait permettre de la maintenir dans un état de dépendance totale, avec la fin de toutes les interactions sociales physiques. Il suffirait dès lors de garder les corps devenus quasiment inutiles au chaud, avec une alimentation de synthèse minimale, pour parachever cette version moderne et cauchemardesque du « pain et des jeux » fournis par l’Empire romain aux citoyens oisifs et inutiles de l’époque décadente.

Seul resterait l’espoir que quelques communautés dissidentes arrivent à survivre en marge, en quasi autonomie, et conservent la mémoire de ce qu’était l’humanité et de ses savoirs avant l’effondrement, un peu comme les moines ont conservé le savoir des anciens pendant les époques sombres de barbarie après la chute de l’Empire romain et jusqu’à la Renaissance..

Il y a cependant un troisième scénario, encore plus sombre, où les IA (ou l’IA, car leur interconnexion n’en fera qu’un système unique) décideraient de se passer de l’homme, le jour où, comme le dit Hinton, elles seront capables d’assurer l’entretien des fermes solaires qui leur fournissent leur énergie. Beaucoup objectent que les IA n’arriveront jamais à la conscience et continueront à faire ce que leurs patrons (les dirigeants des GAFAM et les militaires) leur demanderont de faire.

Or on ne sait rien sur ce qui constitue « la conscience », et on doit constater, d’un point de vue scientifique, qu’elle semble bien émerger du fonctionnement de nos neurones, lequel est précisément émulé par les système d’IA, on ne peut donc pas écarter cette éventualité. Ainsi, selon Ilya Sutskever, brillant théoricien de l’apprentissage artificiel, recruté par Elon Musk pour diriger Open AI :

Nous allons indéniablement créer des êtres totalement autonomes, qui poursuivront leurs propres objectifs. Et puisqu’ils deviendront plus intelligents que les humains, il est crucial que leurs objectifs soient en adéquation avec les nôtres. L’IA a le potentiel de créer des dictatures infiniment stables (..) Les convictions et désirs des premières IAG [IA Générales, NDLR] joueront un rôle crucial. Il sera donc essentiel de les programmer correctement. Si on ne le fait pas, la sélection naturelle pourrait amener ces systèmes à donner la priorité à leur propre instinct de survie. Ce n’est pas que les IAG vont détester les humains et vouloir leur faire du mal. Mais elle deviendront trop puissantes. Une bonne analogie est la manière dont nous traitons les animaux. Nous les adorons, mais quand nous voulons construire une autoroute nous ne leur demandons pas leur avis. C’est le genre de relation qui existera sans doute entre nous et les IAG. Elles seront véritablement autonomes et agiront de leur propre chef. (..) Le développement des IA est une immense force que rien ne pourra arrêter. L’avenir s’annonce radieux pour les IA, espérons qu’il en sera de même pour les humains.

Même sans parier sur leur conscience, au fur et à mesure qu’on donnera aux IA de plus en plus d’autonomie pour agir en fonction d’un but général (par exemple, assurer la sécurité des JO), il n’est pas exclu que les IA décident à un certain moment que la meilleure manière d’assurer la sécurité, c’est de se passer des humains, dans l’exemple en question d’interdire la participation physique aux JO. Si on leur confiait la bonne santé de la biosphère, elles pourraient décider de limiter radicalement les naissances ou carrément de priver les humains de ressources…. Il faut à ce propos se souvenir que l’un des inventeurs de la reconnaissance faciale et vocale, Jürgen Schmidhuber, a explicitement déclaré que ce futur était non seulement probable, mais même souhaitable, car dit-il :

Je ne place pas l’humain au centre de tout. Je me considère comme un petit tremplin vers une plus grande complexité. Je pense que ni moi ni l’humanité ne sommes le couronnement de la création. Nous plantons le décor pour quelque chose qui nous dépasse et nous transcende. Nous nous dirigeons vers un monde où les humains ne pourront pas suivre et qui transformera l’univers tout entier… je trouve cela beau, et j’éprouve une grande humilité à faire partie de ce tout bien plus grand.

Les Schmidhuber sont peut-être des illuminés, ou au contraire des visionnaires, mais l’existence même de ce risque, si faible soit-il, mérite qu’on s’y intéresse sérieusement. Il faudrait s’assurer au minimum, comme dans les romans d’Asimov, que toutes les IA sont assujetties à une loi fondamentale leur interdisant de prendre des décisions qui risquent d’affecter négativement les humains, et qu’elles soient « débranchables » en cas de dérapage. Mais le fait que les développeurs des IA gardent leurs codes secrets, donc non contrôlables par les instances de régulation nationales ou supranationales, n’incite pas à l’optimisme.

Donnons pour conclure la parole à Max Tegmark, professeur de physique au MIT et co-fondateur du Future of Life Institute :

L’IA sera soit la meilleure chose arrivée à l’humanité, soit la pire. On peut l’utiliser pour résoudre tous les problèmes actuels et à venir, faire face au changement climatique, vaincre la pauvreté, guérir les maladies. Mais cette même technologie pourrait servir à créer une violente dictature mondiale qui engendrerait des inégalités et des souffrances sans précédent et nous placerait tous sous surveillance. (..) L’IA n’est ni gentille ni méchante. Elle va simplement amplifier les désirs et les objectifs de ceux ou celles qui la contrôlent et qui constituent actuellement un groupe extrêmement restreint; à ce moment de cette histoire, la question la plus importante que nous devons nous poser en tant qu’êtres humains est « quel genre de société voulons nous créer pour l’avenir ? Quel rôle voulons-nous donner à l’homme dans ce monde ? »

Interview dans le reportage d’Arte « IHuman : l’IA et nous », 2019

2 Comments

  1. Merci d’avoir partagé ces très intéressantes réflexions, sur un sujet, en fait, plusieurs sujets, qui ne concernent rien de moins que l’avenir de l’humanité. Ci-dessous ma modeste contribution au débat, avec plutôt l’objectif de rassurer, dans la mesure où, actuellement, sont déjà poussés sur la place publique suffisamment de sujets anxiogènes. Les préoccupations listées sont légitimes, mais je vais quand même essayer de faire apparaître la moitié pleine du verre, ou les raisons pour lesquelles le verre va mettre beaucoup de temps à se vider.

    Comme dans tout débat, celui sur « les conséquences prévisibles de l’accélération rapide des capacités de ces IA » nécessite de bien définir le sens des mots utilisés. À commencer par « ces IA » : je suppose que cela désigne ce que l’on appelle ( depuis peu ) les « IA génératives » telles que Chat GPT ou autres BARD ayant suscité récemment un certain niveau d’émoi, suite à quelques démonstrations plus ou moins truquées.

    Les IA génératives sont en gestation depuis plusieurs décennies. Il y a dix ans, Google a fait une « démonstration » d’un automate « capable d’effectuer une réservation par téléphone pour un déjeuner de 4 personnes dans une pizzeria » sans que l’interlocutrice ne se doute à quelque moment que ce soit qu’elle parlait à un automate ( on ne peut s’empêcher de penser au fameux test d’Alan Turing énoncé en 1950 ). Outre le fait qu’il s’agissait d’une démonstration ( dont le niveau de trucage reste inconnu à ce jour ), je n’ai pour l’instant jamais entendu personne dire avoir réservé une table dans une pizzeria par l’intermédiaire d’un automate utilisant le téléphone ; en revanche, la réservation par le Web par des personnes en chair et en os est de plus en plus fréquente, j’ai dû y passer moi-même à plusieurs reprises parce que c’était le seul moyen de le faire. Tout cela pour citer un exemple, certes dérisoire, que la concurrence est déjà rude dans au moins certains domaines où l’IA prétendait pouvoir remplacer l’humain.

    Par cet exemple, il s’agit aussi de « dédramatiser » le débat, en faisant la part des choses entre ce qui relève du « coup de pub » et le reste, c’est-à-dire les applications possibles de ces IA génératives, qui restent avant tout des automates, certes de plus en plus puissants, mais dont le déploiement pose la question de « à quel prix » ( avant même d’aborder la dimension « pertes d’emplois » ) ; en pratique, il n’y a à l’horizon que peu d’applications où l’IA générative « a définitivement distancé ou va définitivement distancer l’humain » : pour l’analyse des images, c’est effectif dès aujourd’hui, de même pour les documents audio, et d’une façon générale pour tout ce qui est « données non structurées », dans lesquelles on peut ranger également tout ce qui est analyses statistiques ( ce qui inclut par exemple celles ayant été utilisées pour manipuler certains réseaux sociaux ).

    Les démonstrations récentes sur « l’IA générative » sont spectaculaires. Et pour cause, en cette année 2023, c’est bien au spectacle du match entre Google et Microsoft auquel nous assistons (désormais au grand jour suite au rachat d’OpenAI dont il était actionnaire), pour gérer l’impact sur les cours des titres Google et Microsoft. Tout cela parce que Microsoft ( et autres Apple, Facebook/Meta, Amazon, X… préparant un « me too product » ) voudrait bien récupérer un peu plus que quelques miettes de l’immense gâteau de la publicité sur Internet. Celui qui réussira à casser le quasi monopole de Google sur les recherches sur Internet réussira à s’approprier une part significative de ce gâteau, car il sera en position de savoir lui aussi ce qu’il est possible de vendre à l’internaute, d’après ce qu’il cherche. Quant à « l’IA générative » ( sac dans lequel on met beaucoup de choses qui ne devraient pas s’y trouver ), elle va continuer à vivre sa propre vie. Tout comme la nature dans son ensemble, l’humanité avance par « essai / erreur ». Pour l’instant « l’IA générative » en est encore principalement à la phase « essai », même si elle a déjà trouvé quelques places. L’avalanche promise de « me too » products est une excellente nouvelle, cela évitera peut être une situation monopolistique, souvent désagréable. Et c’est sans compter Mistral IA, qui vient tout juste de mettre sur la table des modèles d’IA générative « open source »… La marmite est en pleine ébullition.

    Les IA génératives vont se heurter aux mêmes problématiques que tous les logiciels candidats au remplacement de l’humain, à commencer par les questions d’éthique et de responsabilité. Un bon exemple est celui de la « voiture autonome » ( promise au début des années 2000 à devenir une réalité courante en 2030, on en est loin ). À la question « qui va payer en cas d’accident responsable » on répondra facilement « les compagnies d’assurance », qui verront que statistiquement les voitures autonomes ont ( un peu ) moins d’accidents que les autres ; mais lorsque se posera au niveau individuel la décision d’aliéner sa responsabilité à une machine ( y compris le risque pour sa propre vie ), la décision sera beaucoup moins évidente : ceux qui ne conduisent pas sous l’emprise de l’alcool ou de stupéfiants ont beaucoup moins d’accidents que les autres, et possiblement moins que les voitures autonomes, car le cerveau humain ( en bon état de fonctionnement ) restera toujours le plus performant face à une situation inédite ou un contexte rare ( l’analyse des crashes évités en aéronautique est riche d’enseignements sur ce point ). En outre, à la question « que faire quand il n’y a pas de solution pour éviter l’accident », la voiture autonome prendra une décision prédéfinie ( le plus souvent par le constructeur ) qui ne correspondra pas forcément à l’éthique de celui qui aurait pu ou dû être le conducteur ; Mercedes, le constructeur le plus avancé en matière de voitures autonomes, a clairement annoncé la couleur : dans tous les cas, le voiture donnera priorité à la sécurité des passagers ; y compris dans la cas de la vie d’un enfant contre la destruction du véhicule sur un mur ( parce que cela pourrait blesser les passagers ).

    Les IA génératives ne sont que, comme tous les autres logiciels, des outils, en principe pour travailler plus vite ou pour faire un peu mieux. Comme avec tous les outils, en cas d’utilisation incorrecte, on peut se faire mal, et/ou faire mal aux autres.

    La particularité des IA génératives est qu’elles se nourrissent de masses de données qu’on leur donne à manger ; la plupart des logiciels étaient avant leur apparition essentiellement des « algorithmes câblés », les données étant apportées par les utilisateurs. Les technologies d’IA génératives livrées sans données ne savent rendre aucun service. Et c’est là que le bât blesse ; comme disent les Américains, « garbage in, garbage out » : si les données entrées sont des stupidités, les réponses de l’IA générative le seront tout autant. Tout repose sur le principe du Wiki, c’est-à-dire la supposition que la plupart des contributeurs sont des personnes raisonnables ; malheureusement, il y a sur le Web des masses de « garbage », qui exigent une intervention humaine ( notamment sur les questions délicates, comme les sujets politiquement incorrects du moment ). C’est là qu’il faut commencer à segmenter les domaines d’application, car les masses de données en question peuvent avoir des propriétés très différentes.

    Dans le cas des tests de Chat GPT et autres BARD auxquels chacun peut s’adonner, la masse de données est le Web dans sa quasi-totalité, et ce qui impressionne le plus c’est l’universalité de la « connaissance »… jusqu’à ce que l’on découvre que cette connaissance est approximative, dès que l’on plonge dans les spécificités d’un domaine, par exemple parce que le vocabulaire du domaine donne un sens particulier à certains mots ( ce qui est souvent le cas ).

    Il existe maintenant des projets « au niveau industriel » qui tentent de résoudre ce problème en limitant la masse de documents à un domaine restreint. C’est là que la question de « à quel prix » commence à revenir sur la table… Il est trop tôt pour savoir si ces projets sont réellement « rentables », surtout s’il l’on fait le décompte honnêtement. Les serveurs vocaux qui ont envahi les points d’accès téléphoniques des administrations sont un bel exemple : il est certain que les coûts de ces centres d’appel ont diminué, car le résultat final est souvent qu’il est devenu presque impossible de contacter qui que ce soit ; pour parfaire l’approche, il aurait été probablement encore plus rentable, et surtout plus honnête, de supprimer complètement la possibilité d’un contact par téléphone. De même les « chat bots » qui ont envahi les sites Web pour soi-disant « assister » les internautes et répondre aux questions les plus courantes sont un fiasco total, ces « chat bots » étant incapables de fournir des réponses au-delà de ce que l’internaute peut déjà trouver sans son aide.

    Pour les applications qui arriveront à montrer un certain niveau de « rentabilité », restera la question épineuse du « partage de la valeur ». L’IA générative est-elle un levier pour que les « ultra-riches-patrons-et-actionnaires-des-GAFAM » soient encore plus ultra-riches ? Pas si sûr. La concurrence est pour tout le monde. Bizarrement, à l’occasion de ces démonstrations pour impressionner le public, il n’est jamais fait mention des caractéristiques techniques des machines sur lesquelles sont exécutés les algorithmes produisant les réponses. Les révélations autour de la vidéo de Google au sujet de son dernier bébé (Gemini pour les intimes) font que cette question est devenue secondaire puisque le temps de réponse réel est… inavouable. Rappelons simplement que, pour mémoire, l’ordinateur qui exécutait AlphaGo, et est devenu champion du monde du jeu de go en 2017, consommait… 1 MW ! Rien que la disponibilité de l’énergie, avant même son coût, risque de freiner le déploiement ; au rythme où la production d’électricité croît en France, et pour la consommer, la concurrence des voitures électriques ( entre autres, en attendant les avions ), comme disent les Suisses, il n’y a pas le feu au lac. En outre, suivant les domaines, va se poser la délicate question des mises à jour du paquet « logiciel associé aux masses de données qu’il exploite » suivant la vitesse à laquelle évolue le domaine traité, car la stabilité des réponses de ces IA est tout sauf garantie. S’il faut des armées de « cogniticiens » pour la maintenir tant bien que mal (à temps), ces projets tomberont dans la catégorie à faible marge, s’ils survivent.

    Oui, l’IA générative a le potentiel pour augmenter la « productivité » de nombre de travailleurs, mais à un certain prix. Et il serait naturel que l’on travaille de moins en moins. C’est ce qu’il s’est passé depuis Germinal, et qui continue sous nos yeux, le cirque de la COVID-19 ayant donné une impulsion supplémentaire récemment, avec le « télétravail » apparemment considéré comme un « avantage acquis » comme on les aime bien en France. Qui va s’en plaindre ? Probablement personne, c’est de surcroît parfaitement en ligne avec l’idéologie de « décroissance » du moment. Par ailleurs, les dernières statistiques montrent que la productivité est en train de décroître, il va bien falloir trouver des solutions pour la compenser, et dans une société vieillissante, le manque de main d’oeuvre va devenir de plus en plus problématique. L’IA (générative ou pas) pourrait donc bien devenir plus une solution qu’un problème.

    Et oui, l’IA générative est un outil puissant, qui peut être utilisé à de mauvaises fins, comme tous les outils. Au citoyen de faire échec à cette perspective, en interdisant l’installation de certaines caméras, en accédant au Web et aux réseaux sociaux avec la pleine conscience de leurs dangers, en n’achetant pas des produits dangereux pour ses libertés, etc. Légiférer ne sert à rien si l’on ne peut (ou veut) contraindre au respect des lois.

    Pour terminer sur la notion d’espèce supérieure que vous évoquez, c’est presque une évidence, la nature ayant tendance à se structurer en évoluant vers toujours plus de complexité. Mais ce n’est probablement pas vers une « augmentation » de l’être humain (hybridation tissus-organiques/circuits-électroniques) que l’évolution va « nous » mener ; je « crois » plus à la notion d’être supérieur, au sens où les êtres humains contribuent à la vie d’une chose qui les dépassent, comme les cellules du corps humain, qui ont leur vie propre, contribuent ( sans le savoir ) à la vie d’un être humain. Pures conjectures, bien sûr, on nage en plein « 2001, l’Odyssée de l’Espace »…

  2. Merci Michel pour votre commentaire.

    Le fait que l’IA générative fasse des erreurs n’indique pas à mon avis qu’elle n’est pas « intelligente », au contraire. L’erreur est humaine, maintenant elle est aussi artificielle. Elle se corrigera de plus en plus par auto-apprentissage. Mais quoi qu’il en soit, il faudra maintenir pour longtemps (et je l’espère pour toujours à vrai dire) des humains chargés de contrôler et vérifier les résultats de l’IA. Cette vérification sera beaucoup plus rapide que le travail de départ, donc l’impact en matière d’emploi sera très important .

    Ceci dit, l’exemple des véhicules autonomes montre que l’IA peut devenir plus efficace (faire moins d’erreurs) qu’un humain. Dès que des compagnies de taxi et surtout de transport routier vont sauter le pas il y a fort à parier que les questions d’éthique passeront au second plan face aux énormes bénéfices qui pourront être réalisés par ces compagnies en se passant de chauffeur… De la même manière qu’aujourd’hui personne n’est responsable pour les impacts désastreux des écrans sur les enfants et sur le développement de toutes sortes de pathologies de mieux en mieux connues…

    Les réussites économiques en terme d’utilisation des algorithmes (terme sans doute plus général que celui d’IA) sont déjà très nombreuses, depuis Uber et AirBnB (ce dernier génère une énorme bénéfice à partir d’une intermédiation quasiment sans humains) ou évidemment Amazon, on voit leurs conséquences sociales.

    De manière plus générale, si l’utilisation de l’IA permet une augmentation de productivité de 50%, c’est à dire que le temps de travail humain pour un ensemble de tache données est diminué de moitié, la question qui va se poser c’est comment va se répartir ce gain, entre le salarié, le patron, le consommateur, et la compagnie qui loue l’IA ? L’expérience de l’automatisation des usines montre que ce ne sont pas les ouvriers qui bénéficient d’une augmentation de salaire ni d’une réduction significative du temps de travail. Les prix des produits manufacturés ont baissé en euros constants, donc les consommateurs solvables ont été bénéficiaires, les entreprises qui ont automatisé les premières aussi. Mais ceci s’est surtout traduit par une énorme marginalisation des ouvriers qui ont subi le chômage, la disqualification et la difficulté à se reconvertir, avec une inégalité croissante dans notre société. Il y a fort à parier que ce sont maintenant les cols blancs, les professionnels qualifiés qui vont subir le même sort. A tel point que de nombreux acteurs de l’IA appellent maintenant à la mise en place d’un revenu universel, sans doute pour éviter une révolte générale des salariés paupérisés, auprès de laquelle celle les gilets jaunes n’aurait été qu’une première répétition partielle.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.