Lorsque nous présentons notre association, la question qui nous revient est souvent : mais pourquoi êtes vous « contre » l’IA ? Après tous, l’IA peut rendre des services très utiles, comme toute technique elle peut être mise au service du bien aussi bien que du mal, ne faut-il pas plutôt se battre pour qu’elle soit encadrée par des règles définies au nom de l’intérêt général ?
L’idée est certes séduisante, mais la réponse que nous faisons est en substance : non, nous ne croyons pas que la mise en place d’une telle régulation ne soit possible et ni réaliste à court et moyen terme, compte tenu du monde dans lequel nous vivons. Entre temps, les progrès de l’IA sont de plus en plus rapides et les tentatives de régulation qui se mettent timidement en place seront toujours en retard d’une guerre, même si aujourd’hui tout le monde ou presque appelle de telles régulations de ses vœux. Quand à l’autorégulation par les acteurs de la tech, c’est un mythe perdu d’avance, au mieux une douce illusion, au pire de la propagande, ou comme disent les anglo-saxons de l’« ethical washing »
Nous allons développer ci dessous :
– Un récapitulatif des avantages et risques potentiels de l’IA ->
– L’analyse critique des initiatives actuelles pour une régulation de l’IA ->
– La conclusion que nous en tirons ->
Avantages et risques potentiels de l’IA
Pour commencer notre démonstration, dressons d’abord un tableau rapide des avantages potentiels de l’IA (ou des usages des IA, pour être précis), et des risques qu’elle représente .
Du côté des avantages attendus par les optimistes, on peut lister :
- L’élimination des taches fastidieuses, la réduction du temps de travail nécessaire pour vivre, et à terme abolir le travail « obligé » (ce qui irait de pair avec la mise ne place d’un revenu d’existence universel).
- Ceci permettrait de développer la créativité, la liberté, donner du temps pour la vie sociale, l’art, la découverte.
- L’utilisation de l’IA « pour le bien », par exemple pour la médecine, pour suivre et prédire les phénomènes météorologiques de grande ampleur, pour restaurer des livres anciens.
- Certains pensent, en allant plus loin que l’IA serait beaucoup plus efficace que les gouvernements humains, si on lui confiait le pouvoir politique, pour sauver la planète et limiter l’impact de nos activités sur la biosphère.
Du côté des risques, on peut lister :
- Perte d’autonomie, dépendance
- Croissance des inégalités et du chômage
- Désinformation
- Menace sur les droits fondamentaux, en particulier celui à la non-discrimination
- Terrorisme
- Usages militaires de l’IA (Robots tueurs affranchis de tout contrôle humain)
- Surveillance généralisée/ contrôle social
- Fin de la démocratie; Dictature d’une techno-oligarchie
- Risques existentiels/ systémiques d’asservissement d’homo sapiens, voir de disparation (divergence)
Tout le monde ne s’accorde pas sur tous les risques cités, mais il y a consensus sur les risques en terme de désinformation, terrorisme, surveillance généralisée et extension du contrôle social entraînant la fin des démocraties. Bien que cela ne soit pas toujours explicite, il y a aussi une inquiétude avec le pouvoir croissant d’une poignée de milliardaires de la tech alliés aux capitalisme financier transnational et aux appareils militaro-sécuritaires, et le risque qu’ils ne prennent le pouvoir sous forme d’une dictature techno-oligarchique.
Il y a également une préoccupation, bien qu’elle soit moins citée, avec l’utilisation croissante de l’IA par les militaires, avec l’avènement de robots tueurs dont on est très proche (mais on s’y résigne, en se disant que si ce n’est pas le fait des bons gouvernements de l’axe du bien, les méchants le feront de toute façon). La ligne rouge a déjà été franchie depuis juin 2022 en Ukraine et à Gaza, devenus des laboratoires de la guerre du futur pour le plus grand bonheur des GAFAMi. Le risque de perte d’autonomie des humains est mis en avance par les humanistes et par tous ceux qui s’inquiètent des ravages des écrans et du monde virtuel sur les individus et sur la société. Il est beaucoup moins cité par les entreprises de la tech et par les gouvernements. Les citoyens sont préoccupés par le risque de croissance des inégalités et du chômage, mais il est totalement nié par les tenants de l’establishment et de l’industrie de la tech, qui nous promettent des lendemains qui chantent. Enfin last but not least, les risques existentiels pour l’humanité, qui résulteraient d’effets systémiques non anticipés d’IA toujours plus puissantes (ce que certains dénomment al divergence) font l’objet de féroces controverses, certains chercheurs les qualifiant de fantasmes ou de propagande orchestrée par les milliardaires de la tech, d’autres (et non des moindres, nous le verrons plus bas) les considérant comme plausibles.
Les pistes actuelles de régulation
Suite à la sortie publique de Chapt GPT et des premières IA génératives, les appels et initiatives à une régulation de l’IA se sont multipliés. Citons notamment :
- L’ appel de 1000 experts de la tech pour un moratoire sur le développement des nouvelles IA – 29 mars 2023
- La déclaration internationale de Bleetchley – 2 Nov 2023
- Un appel international des chercheurs americano-chinois à Pekin 11 mars 24
- La déclaration de l’ONU – mars 2024
- l’ AI Act Européen – juin 2024
- La loi SB 1047 Californie – 28 aout 2024 (en attente de promulgation)
- Convention du conseil de l’Europe sur l’IA – Sept 2024-
Nous allons maintenant analyser ces diverses initiatives dans l’ordre chronologique (sauf l’appel des 1000 déjà largement commenté).
La déclaration de Bleetchley
La déclaration de Bleetchley est le résultat d’une conférence à huis clos, organisée par le gouvernement britannique en Novembre 2023. Cette conférence ii a réuni les représentants de 28 pays parmi les plus développés, notamment Etats Unis, Chine, UE. Ont également participé des représentants du « big tech » ainsi que des spécialistes de l’IA reconnus. La liste des participants inclut notamment:
- Rishi Sunak, premier ministre du Royaume-Uni
- Ursula von der Leyen, présidente de la Commission européenne
- Antonio Guterres, secrétaire général des Nations unies
- Kamala Harris, vice-présidente des États-Unis
- Charles III, roi du Royaume-Uni (par visio-conférence)
- Elon Musk, PDG de Tesla, propriétaire de Twitter, SpaceX, Neuralink et xAI
- Giorgia Meloni, première ministre italienne
- Sam Altman, PDG d’OpenAI
- Geoffrey Hinton, spécialiste de l’intelligence artificielle
- Yoshua Bengio, spécialiste de l’intelligence artificielle.
Au terme de ces deux jours, que dit la déclaration iii?
Au niveau des risques, elle affirme queiv : « Parallèlement à ces opportunités, l’IA présente également des risques importants, y compris dans les domaines de la vie quotidienne. Il convient de se pencher sur la question de la défense des Droits de l’homme, de la transparence et de l’explicabilité, de l’ équité, de la responsabilité, de la réglementation, de la sécurité, du contrôle et de la surveillance humaine appropriée, de l’éthique, de l’atténuation des préjugés, de la protection de la vie privée et des données.
Des risques substantiels peuvent découler d’une mauvaise utilisation intentionnelle ou de pertes de contrôle involontaires liés au non-alignement de l’IA sur les intentions humaines.
Ces problèmes sont en partie dus au fait que ces capacités ne sont pas entièrement comprises et sont donc difficiles à prévoir. Nous sommes particulièrement préoccupés par ces risques dans des domaines tels que la cybersécurité et la biotechnologie, ainsi que dans les cas où les systèmes d’IA d’avant-garde peuvent amplifier des risques tels que la désinformation.
Il existe un potentiel de dommages graves, voire catastrophiques, qu’ils soient délibérés ou involontaires, découlant des capacités les plus significatives de ces modèles d’IA ».
Face à ces défis majeurs, que recommande la déclaration de Bleetchley ? Elle appelle vtous les acteurs concernés à développer leurs plans pour évaluer , mesurer et corriger les risques. Elle encourage les pays à construire leurs propres systèmes de contrôle et surveillance, adaptés à leurs contextes nationaux, et décide de soutenir un réseau de chercheurs internationaux pour étudier les risques de l’IA.
Par contre, pas un mot sur le besoin d’une régulation internationale, même minimum, comme par exemple les traités sur l’interdiction des armes biologiques et chimiques. Ce refus a d’ailleurs été confirmé par les Etats Unis lors de la session de l’ONU consacrée à l’IA, ils ont fermement repoussé la proposition d’Antonio Guttierez de créer une agence de l’ONU sur l’IA, comme il en existe une sur l’énergie atomique
En gros, la montagne accouche d’une souris, on fait appel à la bonne volonté de chacun, entreprises ou gouvernements concurrents, pour intensifier l’évaluation des risques, sans aucune obligation de moyens ni de résultats.
L’appel de Pékin
Quatre mois plus tard, en mars 2024, des chercheurs de haut niveau américains et chinois se réunissent à Pékin, dans le cadre d’un dialogue international sur la sécurité de l’IA, pour ce qui semble être la suite de la proposition de créer un réseau international de chercheursvi. (voir aussi notre article d’Avril 2024vii). Il s’agit notamment de Geoffrey Hinton, ancien directeur IA de google, Yoshua Bengio, lauréat du prix Turing, Stuart Russell, pionnier de l’intelligence artificielle, Andrew Yao, doyen de l’institut interdisciplinaire des sciences de l’information à l’université de Tsinghua, et Hu Tie Jun, Président de l’Académie d’intelligence artificielle de Pékin.
Ils ont auparavant publié en Novembre un article viii qui explicite les risques de l’IA :
– Les dangers de développement d’IA sans contrôle seraient d’amplifier l’injustice sociale, d’éroder la stabilité sociale, et d’affaiblir notre compréhension partagée du monde qui est à la base de toute société. Elles pourraient encourager des activités criminelles ou terroristes à grande échelle. Dans les mains d’acteurs puissants, elles pourraient exacerber les inégalité globales, faciliter la guerre automatisée, développer la manipulation de masse et la surveillance généralisée.
– Le risque est évidement que des acteurs mal intentionnés donnent à des IA autonomes des buts dangereux. Mais même des développeurs bien intentionnés pourraient créer des systèmes qui poursuivent des objectifs indésirables, car personne ne sait comment aligner le comportement des IA avec des valeurs complexes
– Ces IA pourraient développer leurs propres stratégies, pour par exemple gagner la confiance de certains humains, obtenir des ressources financières, former des coalitions avec d’autres acteurs humains et avec d’autres IA. Ils pourraient copier leurs algorithmes sur d’autres serveurs pour éviter d’être effacés ou corrigés, écrire leurs propres programmes, et hacker les systèmes de communication, des banques, des gouvernements et des armées.
A noter ici, les risques de croissance des inégalités et des injustices, celui d’une réduction de notre capacité de compréhension partagée, de manipulation et surveillance généralisée sont explicités, de même que la concentration de pouvoir au main d’acteurs puissants. Les risques de guerre automatisée également. Mais ce qui est plus remarquable, c’est la description de la manière dont des IA avancées pourraient échapper au contrôle humain et finalement prendre le pouvoir. Ils insistent sur le fait que l’on ne comprend pas vraiment comment les IA avancés fonctionnent (on connaît les mécanismes de base bien sûr, mais le chemin de l’information jusqu’à l’output final n’est pas traçable, pas plus qu’on en sait comment fonctionne un cerveau même si on connaît le fonctionnement des neurones), ce qui explique que certains résultats sont imprévisibles. La seule manière de limiter ces risques, par définition mal connus puisque nouveaux, consiste selon eux à effectuer des campagnes d’essais intensifs, nécessairement longs et coûteux, qui vont alourdir considérablement le coût déjà élevé de l’entrainement des IA.
A Pékin les chercheurs publient à leur tour une déclaration, qui reprend de manière synthétique cette analyse des risques, et définit un certain nombre de lignes rouges à ne pas franchir.
Ils concluent avec des recommandations beaucoup plus ambitieuses :
« Des régimes de gouvernance complets sont nécessaires pour garantir que les lignes rouges ne sont pas franchies par les systèmes développés ou déployés. Nous devrions immédiatement mettre en œuvre l’enregistrement national des modèles d’IA et des cycles d’entraînement lorsqu’ils dépassent certains seuils de calcul ou de capacité. Les régulateurs nationaux devraient adopter des exigences alignées au niveau mondial pour empêcher le franchissement de ces lignes rouges.
Nous devrions prendre des mesures pour empêcher la prolifération des technologies les plus dangereuses tout en garantissant un large accès aux avantages des technologies de l’IA. Pour ce faire, nous devrions mettre en place des institutions et des accords multilatéraux pour régir le développement de l’AGI de manière sûre et inclusive, avec des mécanismes d’application pour s’assurer que les lignes rouges ne sont pas franchies et que les bénéfices sont largement partagés. »
En synthèse, ces chercheurs appellent à un accord international sur la régulation de l’IA, indispensable selon eux pour éviter une course technologique à la fois des acteurs privés et des militaires sans contrôle sérieux.
La déclaration des Nations Unies
Assez logiquement, cet évènement est suivi par une résolution de l’assemblée générale des Nations Unies, le 21 mars visant à établir des règles internationales encadrant les usages de l’intelligence artificielle ix.
Le secrétaire général de l’ONU, Antonio Guterres, a fait de la régulation de l’IA une de ses prioritésx. Il appelle à la création d’une entité onusienne, sur le modèle par exemple de l’Agence internationale de l’énergie atomique (AIEA). Mais cela est loin de faire l’unanimité. Les Etats Unis, en particulier, s’opposent à toute idée de régulation internationale.
La résolution, qui exclut l’IA relevant du domaine militaire, explique « qu’il faut établir des normes permettant de garantir que les systèmes d’intelligence artificielle soient sûrs, sécurisés et dignes de confiance ». Et ce, dans le but de « favoriser plutôt que d’entraver la transformation numérique et l’accès équitable aux avantages que procurent ces systèmes »
Le texte insiste sur les menaces posées par des technologies conçues ou utilisées « à mauvais escient ou avec l’intention de nuire ». Il reconnaît aussi que, sans la mise en place de « garanties », l’IA risque de nuire aux droits humains, de renforcer les préjugés et les discriminations et de mettre en danger la protection des données personnelles.
Le texte demande en conclusion à tous les Etats membres et autres parties prenantes de « s’abstenir ou de cesser de se servir des systèmes d’intelligence artificielle qu’il est impossible d’utiliser dans le respect des droits humains ou qui présentent des risques excessifs pour l’exercice des droits humains ». Mais il ne fait aucune référence à un accord international, et encore moins à la création d’une nouvelle agence onusienne en charge de l’IA. Le fait qu’il exclue les usages militaires de l’IA affaiblit encore sa portée. Il s’agit donc d’un appel aux bonnes volontés, sans aucune force juridique.
L’AI Act européen
Autre texte voté en mars 2024, l’ AI Act Européen, en français le Règlement Européen sur l’Intelligence Artificielle xi. On pourrait se dire que l’Union Européenne peut jouer un rôle positif dans la mise en place de régulation, ne serait-ce que parce qu’elle ne fait pas partie du peloton de tête en matière d’IA – loin s’en faut – et donc qu’elle a plus intérêt que les USA ou la Chine à réguler l’IA. Rien ne garantit évidemment qu’elle ait la moindre influence sur la complexe militaro -technologique des Etats-Unis et de la Chine, mais au moins on pourrait espérer qu’elle montre la voie, comme elle l’a fait avec le RGPD.
Hélas, il n’en est rien, et le texte qui avait été renforcé par le Parlement, en 2022 a été largement vidé de sa substance lors de son vote en 2024xii, suite au lobbying agressif des représentant du secteur de la tech, activement secondés par le gouvernement français, sous la houlette d’Emmanuel Macron et de Cédric O. xiii
C’est en 2021 que la Commission européenne a présenté sa proposition de loi initiale sur l’AI. Celle-ci reposait sur un principe simple : celui de séparer les pratiques et technologies entre celles qui doivent être purement et simplement interdites, celles qui doivent être soumises à des régulations plus fortes et celles qui peuvent en être dispensées. La publicité faite autour de ChatGPT lors de son lancement en 2022 a changé la donne. À l’initiative du Parlement européen, la loi européenne a intégré la problématique de l’intelligence artificielle générative, jusqu’alors absente du texte. Les eurodéputés ont introduit des mesures plus contraignantes pour les modèles d’IA dits “à usage général”, du fait des risques que pourraient engendrer certaines utilisations.
Inacceptable pour les grandes entreprises du secteur, qui sont immédiatement entrées en action. Sur l’année 2023, le projet de loi a donné lieu à pas moins de 122 de réunions de lobbying à la Commission européenne, soit une tous les deux jours ouvrables, dont 78% avec les industrielsxiv. Mais dans les derniers mois de cette lutte d’influence, les Microsoft, Meta, Google et autres se sont fait plus discrets. Ce sont les acteurs européens, Mistral AI et Aleph Alpha en tête, qui ont été les têtes de pont de la bataille, en intervenant dans les médias et auprès des politiques.
De fait, c’est surtout à travers les gouvernements des plus gros États-membres, et notamment ceux de la France et de l’Allemagne – alliés à l’Italie – que l’offensive a été menée. Dans les derniers mois de l’année 2023, les dirigeants de ces trois pays ont multiplié les critiques contre les velléités de régulation du Parlement européen.
Mais c’est évidemment le débauchage par Mistral AI de Cédric O, proche d’Emmanuel Macron et ancien secrétaire d’Etat au numérique, comme actionnaire et responsable des relations publiques via sa société de conseil, qui retient l’attention (lire notre article). Il faut dire qu’il n’a pas hésité à tenir sur la régulation de l’AI un discours exactement inverse à celui qu’il tenait alors qu’il était au gouvernement. En 2022 à New York, il affirmait encore : « Nous avons besoin de plus de réglementation. Si le prix à payer est d’avoir un cadre différent aux États-Unis et dans l’Union européenne, alors nous le paierons. » Un peu plus d’un an plus tard, la tonalité était toute différente : « Les investisseurs attendent de voir quelles seront les conséquences de l’IA Act (future législation européenne sur l’intelligence artificielle). S’ils estiment qu’il empêche de créer des champions de rang mondial, alors ils investiront dans des entreprises américaines. »
Alors qu’il joue le rôle de lobbyiste en chef de Mistral AI, Cédric O a gardé ses attaches dans le public puisqu’il a été nommé en octobre 2023 au « comité de l’intelligence artificielle générative » mis en place pour conseiller le gouvernement sur sa politique en matière d’IA. Présenté comme simple « consultant » sur le site de Matignon [3], il y siège d’ailleurs aux côtés de son patron et co-actionnaire Arthur Mensch.
Mistral AI et Aleph Alpha, les prétendus champions européens, ont-ils surtout au final servi de paravent pour le lobbying des GAFAM ? C’est la question que se posent certains observateurs. Et elle se pose de manière encore plus vive depuis que Mistral AI a annoncé, à la fin du mois de février, un partenariat de grande ampleur avec Microsoft, avec à la clé un investissement de 15 millions d’euros de ce dernier. Les modèles de Mistral AI seront désormais entraînés et distribués sur les serveurs du géant américain, dans le cadre d’un arrangement qui n’est pas sans rappeler – même s’il reste à ce stade de bien moindre ampleur – celui passé par le même Microsoft avec OpenAI.
De fait, dans la version finale de la loi européenne, leurs modèles « à usage général » ne sont plus classifiés comme à risque, de sorte que leurs produits – et quasiment tous les autres à l’exception de ChatGPT – ne plus sont soumis qu’à des obligations minimales de transparence… dont la teneur et la mise en œuvre restent encore à préciser. Sous prétexte de ne pas nuire au développement de potentiels champions européens, nos gouvernements ont de fait renoncé à réguler concrètement une grande partie du secteur de l’intelligence artificielle.
Convention du Conseil de l’Europe
Cette convention internationalexv – la première du genre – est intéressante car elle est juridiquement contraignante pour les gouvernements concernés. Elle porte sur la protection des droits humains, de la démocratie et de l’état de droit contre les menaces potentielles de l’IA. Elle engage, de manière très générique, les gouvernements à mettre en place des cadres administratifs, juridiques et réglementaires afin de limiter les risques d’utilisation de l’IA menaçant les droits humains et la démocratie. Ils doivent également mettre en place des mécanismes de recours permettant aux citoyens menacés de porter plainte. Chose intéressante, pour que ce recours soit effectif, elle instaure un devoir de transparence et de traçabilité des systèmes d’IA, au travers de leur cycle de production. Enfin, elle encourage à mettre en place des systèmes de test des nouvelles IA, mais sans aucune obligation de le faire systématiquement.
On peut douter de la manière dont cette convention sera effectivement appliquée. Les obligations des gouvernements sont formulées de manière très générale, en précisant à chaque fois « de manière appropriée au contexte national » ce qui ouvre la voie à de nombreuse interprétations. Certes les citoyens peuvent exercer un recours contre leurs Etats en cas d’insuffisance, mais cela prend des années et suppose d’avoir d’abord épuisé les recours nationaux. La mise en place de cadres réglementaires nationaux respectant cette convention prendra certainement des dizaines d’années, alors que les progrès de l’IA se comptent en mois. Mais le plus grave, c’est que la convention ne s’applique ni aux systèmes de sécurité nationales, ni à la défense. Pire encore, elle ne s ‘applique pas aux activités de recherche et développement des IA, ce qui est totalement incohérent avec son intention de couvrir tout le cycle de l’IA et de les tester avant qu’elle ne soient rendues disponibles à l’utilisation. On sent ici l’influence des GAFAM et probablement des Etats Unis, qui ont participé à l’élaboration de cette convention en tant qu’observateurs.
La loi californienne SB 1047
Dernier épisode en date, le vote le 28 Aout 2024 de la Loi SB 1047 en Californie, visant à réguler les puissants modèles d’intelligence artificielle (IA). Cette loi est en attente d’un possible véto de la part du gouverneur de la Californie.
Elle ambitionne de réguler l’IA générative, c’est-à-dire les outils permettant de créer des contenus comme des textes ou des images sur simple requête en langage courant.
La proposition de loi vise ainsi à empêcher les grands modèles d’IA de provoquer des catastrophes majeures qui entraîneraient la mort d’un grand nombre de personnes ou des incidents de cybersécurité de taille s’ils tombaient dans les mains de personnes malveillantes. Mais réguler l’IA n’est pas du goût des géants du secteur, comme OpenAi ou l’un de ses concurrents, Anthropic.
Depuis son dépôt au Sénat le 7 février dernier, le texte a été tellement amendé qu’il en est actuellement à sa dixième version, loin du texte originel. De là à dire qu’il a été vidé de sa substance ?
Le sénateur démocrate Scott Wiener, à l’origine de cette loi, a assoupli le texte d’origine, suivant notamment les conseils d’Anthropic, une start-up basée à San Francisco. La version actuelle du texte accorde moins de pouvoir qu’initialement prévu aux autorités californiennes pour obliger les sociétés d’IA à rendre des comptes ou pour les poursuivre en justice. Si la loi était promulguée, les développeurs de grands modèles d’IA devraient toutefois tester leurs systèmes et simuler des cyberattaques, sous peine d’amende, mais sans la menace de conséquences pénales. La création d’une nouvelle agence de régulation a également été annulée, au profit d’un organisme chargé de déterminer des normes pour les modèles d’IA les plus avancés.
Malgré ces compromis, le projet de loi a rencontré une ferme opposition de la part d’acteurs clés du secteur technologique, comme OpenAI, Google, et Meta. Sans surprise, OpenAI, le créateur de ChatGPT, s’est prononcé contre le texte « SB-1047 », assurant qu’il risquait de faire fuir les innovateurs de l’État américain et sa fameuse Silicon Valley alors que « la révolution de l’IA commence à peine ». Quand à Yann LeCun, l’un des parrains de l’IA, et l’un de ses soutiens principaux et inconditionnels, il vise à répondre à une “illusion de ‘risque existentiel’ poussée par une poignée de groupes de réflexion délirants”. C’est fort aimable pour ses collègues chercheurs américains et chinois, qui apprécieront la modération du propos.
L’avenir dira si ce texte sera promulgué, et quels effets il aura. Les stratégies d’évitement de la big tech sont déjà prêtes : elles peuvent délocaliser leurs activités dans d’autres états, plus ou moins virtuellement comme ils le font déjà en Europe en se basant légalement en Irlande, ou elles peuvent choisir le risque de payer des amendes qui leur couteront moins cher que la mise en place des coûteux protocoles de test approfondi de leurs modèles. L’essentiel c’est qu’ils échappent aux risques d’une mise en cause pénale (on voit bien avec l’affaire Telegram que c’est la seule qui leur fait peur car elle peut les affecter personnellement, et là pas de délocalisation possible) et à la mise en place d’une agence publique de contrôle…
Conclusion
En conclusion, ce que montrent ces tentatives de régulation récentes, c’est que personne n’est prêt à mettre en place un véritable système international de régulation de l’IA, seul capable d’empêcher la course folle aux IA de plus en plus puissantes sans aucun contrôle. Il y a pourtant un consensus assez large sur les dangers de l’IA, aussi bien au niveau des chercheurs que des gouvernements, comme l’a montré la déclaration de Bleetchley. Mais les logiques de compétition entre les Etats, sur le plan militaire aussi bien qu’économique et sécuritaire, sont telles que les plus puissants, USA en tête, refusent toute régulation contraignante. Ce qui est particulièrement significatif, c’est que les domaines militaires et sécuritaires sont exclus d’emblée de tous les textes en négociation. Ils y sont fortement encouragés par les géants de la tech, dont l’idéologie libertarienne s’accommode mal de toute régulation publique qui pourrait réduire leurs profits et surtout leur liberté d’action. Si l’on compare ce qui s’est passé avec l’invention de la bombe atomique et la domestication de l’énergie nucléaire, sans doute le seul exemple où il y a eu mise en place de régulation internationales via des des accords internationaux de non prolifération et la mise en place de l’AIEA en 1957xvi, aussi imparfaits soient ils, cela n’a sans doute été possible que parce que tout le monde avait assisté aux conséquences dramatiques d’Hiroshima et Nagasaki. Le risque pour l’humanité était donc très concret et visible. Malheureusement, dans le cas de l’IA, si des risques majeurs se concrétisent un jour, entraînant un sursaut des superpuissances, il sera sans doute trop tard pour réguler.
Christian Castellanet, Ingénieur agronome, membre de l’AFCIA
Notes et références
i Source : L’IA entre en guerre. Article du Courrier International du 10 avril 2024. https://www.courrierinternational.com/article/a-la-une-de-l-hebdo-l-ia-entre-en-guerre
ii Le Sommet sur l’intelligence artificielle 2023 est une conférence internationale sur la sécurité et la réglementation de l’intelligence artificielle. Il s’est tenu dans le domaine de Bletchley Park, au Royaume-Uni, les 1er et 2 novembre 2023
iii https://www.gov.uk/government/publications/ai-safety-summit-2023-the-bletchley-declaration
iv Ma traduction. Texte originel en anglais :
« Alongside these opportunities, AI also poses significant risks, including in those domains of daily life. protection of human rights, transparency and explainability, fairness, accountability, regulation, safety, appropriate human oversight, ethics, bias mitigation, privacy and data protection needs to be addressed
Substantial risks may arise from potential intentional misuse or unintended issues of control relating to alignment with human intent. These issues are in part because those capabilities are not fully understood and are therefore hard to predict. We are especially concerned by such risks in domains such as cybersecurity and biotechnology, as well as where frontier AI systems may amplify risks such as disinformation. There is potential for serious, even catastrophic, harm, either deliberate or unintentional, stemming from the most significant capabilities of these AI models.”
v We encourage all relevant actors to provide context-appropriate transparency and accountability on their plans to measure, monitor and mitigate potentially harmful capabilities and the associated effects that may emerge, in particular to prevent misuse and issues of control, and the amplification of other risks.
– Building respective risk-based policies across our countries to ensure safety in light of such risks, collaborating as appropriate while recognising our approaches may differ based on national circumstances and applicable legal frameworks.
– In furtherance of this agenda, we resolve to support an internationally inclusive network of scientific research on frontier AI safety (..), to facilitate the provision of the best science available for policy making and the public good.
vi Ref: https://idais.ai/
viihttps://afcia-association.fr/un-appel-scientifique-international-pour-alerter-sur-les-dangers-de-lia-et-demander-une-regulation-internationale-urgente/
viii« Managing AI Risks in an Era of Rapid Progress » publié par les mêmes chercheurs (Bengio, Hinton, Yao et al) en novembre 2023. https://arxiv.org/abs/2310.17688
ix https://documents.un.org/doc/undoc/ltd/n24/065/93/pdf/n2406593.pdf
x Source : Le Monde, 22 mars 2023. https://www.lemonde.fr/pixels/article/2024/03/22/l-onu-adopte-une-resolution-appelant-a-reguler-l-intelligence-artificielle_6223530_4408996.html
xi https://eur-lex.europa.eu/legal-content/FR/TXT/?uri=CELEX:32024R1689
xii Pour une analyse plus complète de l’Acte qui a égelement reculé sur la protection des droits des citoyens en ouvrant en particulier de larges brèches à la videosurveillance algorithmique, voir l’article de la Quadrature du Net https://www.laquadrature.net/2024/05/22/le-reglement-ia-adopte-la-fuite-en-avant-techno-solutionniste-peut-se-poursuivre/
xiii La partie qui suit est reprise entièrement de l’excellent article d’Olivier Petitjean dans l’Observatoire des Multinationales https://multinationales.org/fr/actualites/mistralai-alephalpha-gafam-ai-europe
xiv L’un des effets de ce lobbying est le remplacement du terme IA générative par celui d’IA d’usage général, (GPAI en anglais), terme inventé par Google puis adopté par tous les GAFAM ensuite. Ce chagement sémantique est intervenu au niveau du Conseil européen, après que Google ait envoyé sa consultation.
xv Convention-cadre du Conseil de l’Europe sur l’intelligence artificielle et les droits de l’homme, la démocratie et l’État de droit https://rm.coe.int/1680afae3d
xvi L’AIEA a été créée sous l’impulsion des Etats Unis, en l’occurence du Président Eisenhower, qui était très conscient des risques que faisaient peser sur la démocratie le système militaro-industriel.
En savoir plus sur AFCIA
Subscribe to get the latest posts sent to your email.