
Notre partenaire le CESIA était présent au 4ème sommet mondial à New Dehli du 18 au 20 février 2026, qui a réuni 250.000 participants. Voici ce qu’il en ont tiré :
« Le quatrième sommet international consacré à l’IA a réuni les délégations officielles de plus de 80 pays à New Delhi. La déclaration finale est structurée en sept « chakras » : des piliers supposés guider le développement et l’usage de cette technologie, tels que « démocratiser les ressources de l’IA » ou « une IA sûre et digne de confiance ». Mais ces principes renvoient davantage à des aspirations spirituelles qu’à des obligations terrestres : pour chacun d’eux, la déclaration prend soin de préciser qu’ils relèvent d’initiatives volontaires et juridiquement non contraignantes (le mot « volontaire » est, avec 15 occurrences, celui qui revient le plus souvent dans le texte après « IA »).
À quelques jours d’intervalle, les dirigeants des trois entreprises à la pointe de l’IA ont pourtant publiquement plaidé en faveur d’une supervision mondiale de cette technologie. Sam Altman (OpenAI) a déclaré que « le monde pourrait avoir besoin de quelque chose comme une AIEA [Agence internationale de l’énergie atomique] pour la coordination internationale sur l’IA ». Demis Hassabis (Google DeepMind) a plaidé pour « un dialogue international et, idéalement, un socle minimal de normes partagées à l’échelle internationale ». Dario Amodei (Anthropic), enfin, a évoqué la nécessité d’un traité mondial : « pourrait-on avoir un traité mondial demandant à tous ceux qui construisent des modèles d’IA puissants de les empêcher de faire telle ou telle chose, avec des mécanismes de vérification, et faire en sorte que la Chine le signe ? […] Je ne pense pas que ce soit utopiste. Je pense que c’est possible ».
L’idée d’une « AIEA pour l’IA » n’est pas nouvelle : António Guterres l’avait fait sienne dès 2023. Dans le nucléaire, l’AIEA élabore des standards internationaux de sûreté et mène des missions d’évaluation et d’inspection. Malgré les différences évidentes entre le nucléaire et les data centers, une partie des mécanismes de contrôle et de vérification pourrait être transposée. Une AIEA pour l’IA permettrait d’établir des lignes rouges communes et de vérifier leur mise en œuvre, plutôt que de s’en remettre à des principes volontaires voués à être délaissés, contournés ou ignorés.
La communauté scientifique converge aussi vers cette conclusion. La semaine dernière, une déclaration signée par 145 professeurs d’université en Allemagne a fait écho à l’Appel mondial à établir des lignes rouges pour l’IA en exigeant « des règles de sécurité contraignantes » et un accord international comportant des « lignes rouges ».
Si industriels et scientifiques s’accordent sur la nécessité d’un cadre mondial contraignant, il y a donc lieu de s’interroger sur la faiblesse du texte final issu du sommet indien. Une partie de l’explication tient à la position de l’administration de Donald Trump, qui, par la voix de Michael Kratsios, a rappelé qu’elle rejetait « totalement » l’idée d’une « gouvernance mondiale de l’IA ». »
Bien que certains mettent leurs espoirs dans une coalition des puissances moyennes, la plupart des observateurs admettent qu’une gouvernance mondiale ne sera possible que si les États-Unis et la Chine acceptent de s’y joindre. Ce n’est pas pour tout de suite….. La question étant : faudra-t-il un Tchernobyl de l’IA (ou pire) avant que ces superpuissances n’acceptent d’encadrer et de limiter le développement de l’IA ?
En savoir plus sur AFCIA
Subscribe to get the latest posts sent to your email.