
Du 16 au 20 février 2026, New Delhi accueille le Sommet de l’Impact de l’IA. Depuis Bletchley (2023), une tendance inquiétante se dessine : à chaque sommet, la sécurité de l’IA recule au profit des intérêts économiques.
Le recul de la sécurité
2023 – Bletchley : Alerte sur le « potentiel de dommages graves, voire catastrophiques » de l’IA
2025 – Paris : La sécurité reléguée au second plan, E. Macron annonce des investissements massifs dans les datacenters
2026 – Delhi : La sécurité disparaît de l’agenda
Cette réorientation soulève une question fondamentale : peut-on diffuser l’IA à l’échelle mondiale sans avoir résolu les problèmes de sécurité et de contrôle ?
Plus de 300 personnalités internationales, dont 11 Prix Nobel et 9 anciens chefs d’État ou ministres ainsi que plus de 90 organisations ont signé une lettre ouverte sur les lignes rouges pour l’IA.
Cette initiative co-organisée par le Centre pour la sécurité de l’IA (CeSIA)avec The Future Society et le Center for Human-Compatible AI alerte sur les dangers sans précédents de l’IA.
Maria Ressa, lauréate du Prix Nobel de la Paix 2021, a annoncé cette lettre lors de son discours d’ouverture à l’Assemblée générale de l’ONU le 22 septembre 2025 (photo ci-dessus).
Parmi les signataires figurent Geoffrey Hinton et Yoshua Bengio (deux des « parrains de l’IA », lauréats du prix Turing), le prix Nobel d’économie Joseph Stiglitz, le climatologue Jean Jouzel, l’ancienne présidente irlandaise Mary Robinson, ainsi que des chercheurs d’OpenAI, Google DeepMind et Anthropic.
L’APPEL
» L’intelligence artificielle (IA) recèle un potentiel immense pour le progrès humain, mais sa trajectoire actuelle présente des dangers sans précédent. L’IA pourrait bientôt dépasser de loin les capacités humaines et exacerber des risques tels que le développement de pandémies artificielles, la manipulation des individus, y compris des enfants, la désinformation à grande échelle, les menaces pour la sécurité nationale et internationale, le chômage de masse et les violations systématiques des droits humains.
Certains systèmes d’IA avancés ont déjà manifesté des comportements trompeurs et nuisibles. Or, ces systèmes se voient accorder une autonomie croissante pour agir et prendre des décisions dans le monde réel. De nombreux experts, y compris ceux à la pointe du domaine, préviennent que si rien n’est fait, il deviendra de plus en plus difficile d’exercer un contrôle humain significatif dans les années à venir.
Les gouvernements doivent agir avec détermination avant qu’il ne soit trop tard pour toute intervention significative. Un accord international définissant des lignes rouges claires et vérifiables est indispensable pour parer à des risques jugés universellement inacceptables. Ces lignes rouges devront s’appuyer sur les cadres juridiques mondiaux existants et sur les engagements volontaires des entreprises, tout en les renforçant, afin de garantir que tous les développeurs d’IA avancée soient soumis à des règles communes.
Nous exhortons les gouvernements à parvenir à un accord politique international sur des lignes rouges pour l’IA — en veillant à ce qu’elles soient opérationnelles, avec des mécanismes d’application robustes — d’ici la fin de l’année 2026.«
En savoir plus sur AFCIA
Subscribe to get the latest posts sent to your email.