
La première conférence de l’IASEIA, c’est à dire l’association internationale pour la sécurité et l’éthique de l’IA s’est tenue à l’OCDE à Paris les 6 et 7 février. Elle a réuni plus de 500 chercheurs et experts du monde entier. Vous pouvez retrouver les débats ici (en anglais exclusivement).
Parmi les moment forts, il y a eu la présentation du Prof. Joshua Bengio, lauréat du prix Turing, chercheur responsable de l’équipe MILA à l’université du Québec, et surtout président du groupe international d’experts sur la sûreté de l’IA. Ce groupe, mandaté par 30 pays, a préparé un rapport alarmant sur les progrès très rapides de l’IA et les risques qui en découlent (résumé en français ici).
Comme l’a dit un des participants, « il y a aujourd’hui aux Etats-Unis plus de normes et de contrôles sur l’ouverture d’une pizzeria au coin de la rue que pour les compagnies qui développent ces nouveau modèles d’IA dont les risques sont très mal connus avec des milliards d’investissement»
L’intervention du prix Nobel d‘économie Joseph Stiglitz était également attendue. Il a mis en avant les risques élevés de croissance des inégalités et de concentration des richesses aux mains de quelques uns et de chômage massif si les compagnies du Big Tech sont laissées libres de continuer à développer leurs IA, sans contrôle sérieux et sans taxation appropriée. En fait il suggère qu’il faudrait casser leur monopole en les démantelant, au nom des lois anti-trust, et que l’Europe devrait en prendre l’initiative .
Malgré toutes ces alertes, le sommet de Paris des 10-11 février a déroulé le tapis rouge pour les industries et investisseurs privés, en minimisant les risques de l’IA et le besoin de régulation.

Comme l’a écrit Maria Turcan dans Mediapart, « la déclaration officielle entérine un affaissement dangereux des barrières de protection autour du développement de l’IA dans le monde. Malgré l’interpellation du Prof. Stuart Russel1, président de l’IASEAI auprès de l’Elysée, le texte final n’a pas été modifié ». Au lieu de s’engager concrètement dans la mise en place de régulations internationales sur l’IA, comme cela avait été décidé lors du précédent somment de Bleetchley Park, la déclaration finale se contente de dire : nous continuerons de traiter les risques que l’IA pourrait faire peser sur l’intégrité de l’information et de renforcer la transparence de l’IA.
En langage diplomatique, ça veut dire : on ne s’occupera plus des autres risques. Passent donc à la trappe les autres risques catastrophiques auxquels les pays avaient promis de répondre.
Comme le dit Stuart Russell :J’ai vu que certains États ne voulaient pas parler de risques, mais juste faire de l’argent. Je ne suis pas le seul à l’avoir perçu comme ça. Franchement, ça ressemblait plutôt à un salon professionnel ! Quand on regarde la liste des participants, il y avait un nombre mirobolant de dirigeants de startups en IA…
1 Professeur d’informatique à l’UC- Berkeley, spécialiste de l’informatique anglo-américain reconnu et respecté. Il a notamment écrit un manuel, Intelligence artificielle : une approche moderne, réédité quatre fois depuis sa première sortie en 1995, qui est toujours l’un des plus enseignés dans les universités à travers le monde.
En savoir plus sur AFCIA
Subscribe to get the latest posts sent to your email.